
I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle
Bienvenue au podcast IA café, le podcast pour les passionnés, comme vous, d’intelligence artificielle. Deux fois par mois, nous recevons, dans notre studio à la Faculté de philosophie de l’Université Laval, au cœur de la ville de Québec, les principaux acteurs (chercheurs, entrepreneurs, artisans) de la recherche sur l’intelligence artificielle, et nous discutons avec eux des enjeux techniques, éthiques et sociétaux émergeant de leurs domaines d’expertise. Au passage, nous tentons nous aussi d'arrimer nos expertises en Éthique, droit et sociologie avec ce domaine émergeant qu'est l'Intelligence artificielle. Je sais que le sujet peut sembler intimidant, mais le ton de ce podcast se veut très relaxe, simple, humble. On prend un café. On discute des grandeurs et misères de la recherche en intelligence artificielle. Rien de plus. Le podcast s’adresse principalement aux chercheurs, entrepreneurs et artisans de ce domaine, aux étudiants qui aimeraient y travailler, mais aussi à ceux et celles qui souhaitent s’immiscer à l’intérieur des murs, parfois étanches, des compagnies et institutions qui créent les intelligences artificielles qui feront bientôt partie de nos vies. Bonne écoute! Vos moutons électriques: Jean-François Sénéchal, Frédérick Plamondon, Ève Gaumond, Sylvain Munger, Shirley Plumerand, Véronique Tremblay et Stéphane Mineo.
I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle
Épisode 3 - Debriefing (Philippe Després) - Nourrir la bête
Retour sur l'entrevue de Philippe Després.
JF, David et Fred discutent de l'entrevue et des thèmes abordés par Philippe Després.
1. La bête est mal nourrie. Comment « nourrir la bête» (AI)? Comment prendre soin de la production des données qui seront ultimement fournies aux AI pour fonctionner? Les IA sont à l’image des données fournies. Si les données sont «toutes croches», les AI seront «toutes croches» puisqu’elles apprennent à partir de ces données. Pour Philippe, la bête est mal nourrie. Les données disponibles à la tonne, mais la qualité n’est pas là. Comment créer les infrastructures qui permettront de produire de façon pérenne et efficace des données à partir desquels ces AI pourront apprendre.
2. Le consentement (à l’utilisation de données). Les GAFA (Google, Amazon, facebook et Apple) de ce monde ont accès à des tonnes et des tonnes de données, et cela, avec un consentement que plusieurs hésitent à qualifier de «libre» et «éclairé». Comment concevoir un système de production de données en recherche qui tient compte de ce consentement, qui puisse élargir ce consentement, qui puisse rendre plus modulable ce consentement (droit de retrait, droit d’effacement), plus pérenne.
3. Les idéaux à atteindre en production de données. On tente de comprendre les principes FAIR, mentionnés par Philippe en conclusion :
o Facile à (re) trouver : identifiant unique et pérenne, indexé, langage commun
o Accessible : Facile à accéder et, lorsque possible, des données ouvertes (et via des protocoles qui permettent aux machines de communiquer entre elles)
o Interopérables : ???
o Réutilisables : données qui peuvent être réutilisées