I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle
Bienvenue au podcast IA café, le podcast pour les passionnés, comme vous, d’intelligence artificielle. Deux fois par mois, nous recevons, dans notre studio à la Faculté de philosophie de l’Université Laval, au cœur de la ville de Québec, les principaux acteurs (chercheurs, entrepreneurs, artisans) de la recherche sur l’intelligence artificielle, et nous discutons avec eux des enjeux techniques, éthiques et sociétaux émergeant de leurs domaines d’expertise. Au passage, nous tentons nous aussi d'arrimer nos expertises en Éthique, droit et sociologie avec ce domaine émergeant qu'est l'Intelligence artificielle. Je sais que le sujet peut sembler intimidant, mais le ton de ce podcast se veut très relaxe, simple, humble. On prend un café. On discute des grandeurs et misères de la recherche en intelligence artificielle. Rien de plus. Le podcast s’adresse principalement aux chercheurs, entrepreneurs et artisans de ce domaine, aux étudiants qui aimeraient y travailler, mais aussi à ceux et celles qui souhaitent s’immiscer à l’intérieur des murs, parfois étanches, des compagnies et institutions qui créent les intelligences artificielles qui feront bientôt partie de nos vies. Bonne écoute! Vos moutons électriques: Jean-François Sénéchal, Frédérick Plamondon, Ève Gaumond, Sylvain Munger, Shirley Plumerand, Véronique Tremblay et Stéphane Mineo.
I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle
Épisode 57 - Moratoire (ou pause) sur l'intelligence artificielle! Un pas de recul?
Gros programme. On parle de l’actualité IA. Et on parle (évidemment!) de cette lettre, publiée par l’institut Future of Life, qui demande aux chercheurs dans le domaine de l’I.A. de prendre une pause de six mois dans leurs recherches et expérimentations en IA. Six mois pour se donner le temps de réfléchir à la place que l’on souhaite donner à l’IA en société, est-ce nécessaire? Est-ce suffisant?
Avec mes collaborateurs et collaboratrices (Fred, Shirley, Sylvain), nous tentons de prendre un «pas de recul» pour décider si cette pause est un «pas de recul» ou non.
Au programme:
- GPT4, Bard, LlaMA - Premières expérimentations et commentaires
- Encadrement normatif de la vidéosurveillance algorithmique au jeux Olympiques de 2024 - Indifférence et acceptabilité passive
- Un homme se suicide - l'imputabilité du robot conversationnel
- Cours 101 sur les LLM (Large language models)
- Taxonomie des risques en IA - Un peu d'ordre!
- Lettre de l'institut Future of life - Pause Giant AI Experiments: An Open Letter. https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Pour faciliter la navigation dans l'épisode :
- 🤖 Le "hype" autour de l'IA: Fred (5:15), Shirley (10:00), Sylvain (14:20)
- 🤖 Ce qui a retenu notre attention ce mois-ci: Fred (26:00), Shirley (32:00), Sylvain (47:40)
- 🤖 À propos de la lettre ouverte de Future of life Institute (FLI) (58:00)
Quelques références mentionnées par Fred:
- Shanahan, M. (2022). Talking About Large Language Models (arXiv:2212.03551). arXiv.
- Floridi, L., & Chiriatti, M. (2020). GPT-3 : Its Nature, Scope, Limits, and Consequences. Minds and Machines, 30(4), 681‑694. https://doi.org/10.1007/s11023-020-09548-1
- Weidinger, L., Uesato, J., Rauh, et al. (2022). Taxonomy of Risks posed by Language Models. 2022 ACM Conference on Fairness, Accountability, and Transparency, 214‑229. https://doi.org/10.1145/3531146.3533088
- Emily Bender : https://medium.com/@emilymenonbender
- AI Snake Oil : https://newsblur.com/site/8752802/ai-snake-oil: https://newsblur.com/site/8943851/iris-van-rooij
- Dan Mcquillan : https://www.danmcquillan.org/chatgpt.html , Resisting AI
Collaboratrices et collaborateurs invités: Shirley Plumerand, Frédérick Plamondon, Sylvain Munger.
Production et animation: Jean-François Sénéchal, Ph.D.
Collaborateurs: Ève Gaumond, David Beauchemin, Maxime Heuillet.