I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle

Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine

February 11, 2021 Jean-Francois Senechal, David Beauchemin, Ève Gaumond, Frédérick Plamondon Season 1 Episode 9
I.A. Café - Enquête au cœur de la recherche sur l’intelligence artificielle
Épisode 9 - Biais psychosociaux - Une I.A. humaine, trop humaine
Vous rêvez (peut-être) de moutons électriques?
Aidez-nous. Et participez à la réflexion IA en français.
Starting at $3/month
Support
Show Notes

Voyage dans le temps. L'épisode a été enregistré en septembre 2020. Ève, David et moi discutons de notre rencontre avec Justine Dima et des thèmes abordés avec cette dernière.
 
 Thèmes abordés:

-          Une IA humaine, trop humaine.

Les IA sont éduquées en fonction de ce que nous sommes, et non en fonction de ce que souhaiterions être. En effet, on les éduque en leur demandant d’apprendre de nos décisions et jugements passés. Or, ces décisions et jugements passés sont empreints de nos failles, erreurs, défauts, préconceptions, préjugés, tendances, biais psychosociaux. Les décisions et jugements résultants de ces algorithmes risquent de ressembler à ceux d’un homme avec ses failles et misères. Ces IA risquent de devenir humaines, mais trop humaines. 

-          Les biais psychosociaux.

Plusieurs biais à l'œuvre en AI. Quelques distinctions: les biais d’accentuation inter-catégorielle (ou effet de contraste), les biais d’homogénéisation intra-catégorielle (ou effet d’assimilation).

-          Une IA qui reflète la morale et la culture des maîtres. 

Les IA sont éduquées en fonction d’une conception occidentale de la morale. Imaginons des IA qui plaquent leur comportement et leur jugement sur les comportements et jugements attendus d’un régime chinois ou sud-coréen? Souhaiterait-on être jugés, évalués, sélectionnés, étudiés par des IA éduqués dans un tel contexte?

-          Une IA difficile à intégrer au monde du travail.

La technologie ne semble pas adaptée à la réalité organisationnelle. Justine Dima le rappelle: « 70-80% des changements IA en organisation échouent parce qu’on n'a pas pris en compte les facteurs humains, parce que les résistances humaines ne sont pas prises en compte ». Il existe des barrières personnelles, humaines et psychologiques qui font en sorte que les individus peuvent être plus réfractaires à l’intégration des IA dans le monde du travail. Quelles sont les pistes de solutions? 


Production et animation: Jean-François Sénéchal, Ph.D
Collaborateurs: David Beauchemin, Ève Gaumond, Frédérick Plamondon

Support the Show.