Mes enfants ne sont pas des IA – #2 Ils utilisent tous les deux des stéréotypes.

Mes enfants ne sont pas des IA – #2 Ils utilisent tous les deux des stéréotypes.

Tuesday, October 17, 2023 EnfantsIA

Les IA et mes enfants sont directement concernés par les stéréotypes et les biais cognitifs, voyons de quelle manière.

Un jour, mon fils, alors âgé de 4 ans, a pointé du doigt une dame d'origine sud-américaine habillée tout à fait normalement dans le bus en me disant à voix haute "Regarde maman, on dirait une femme de ménage !" Tout en essayant de gérer mon embarras, je me suis dit qu'il était intéressant de me demander comment mon petit garçon tout innocent pouvait croire que toutes les femmes sud-américaines étaient femmes de ménage. En réalité, il n'a rencontré que très peu de sud-américaines et de femmes de ménage dans sa vie. Comme notre femme de ménage à l'époque était sud-américaine et qu'il n'en connaissait pas d'autres, il a fait ses déductions lui-même et me l'a annoncé fièrement, sans aucune mauvaise intention.

Personne ne peut vraiment lui en vouloir, nous avons tous des biais cognitifs. Ce sont des mécanismes que les êtres humains ont développés au fil du temps pour survivre. C'est le même mécanisme que l'homo-sapiens utilisait pour traiter la masse et la complexité des informations qu'il percevait de son environnement afin de réagir rapidement et de sauver sa vie; par exemple loup -> danger -> courir. Aujourd’hui, les dangers auxquels nous sommes confrontés sont plus complexes et nous avons appris à penser de manière logique et réfléchie pour les surmonter. Cependant, nous avons tous encore un certain nombre de mécanismes cérébraux inconscients qui nous poussent à essayer de trouver une logique, à catégoriser et à simplifier le monde qui nous entoure. Au fil des ans, les stéréotypes développés par les individus se sont renforcés et se sont répandus au sein et entre les communautés. Plus précisément, les stéréotypes développés par la classe dominante (c'est-à-dire les hommes blancs) sont devenus prédominants dans notre société moderne. C’est pourquoi le racisme et le sexisme sont si difficiles à combattre aujourd’hui ; nous avons tous hérité et été exposés à ces stéréotypes, qui ont été systématiquement renforcés par notre propre cerveau.

L’IA, à l'inverse de mon fils, a été exposée à des quantités phénoménales de données. L’IA n’est pas humaine et n’a pas développé de mécanismes de survie pour simplifier sa réalité ; elle la prend telle quelle. Alors comment l’IA aurait-elle elle aussi développé des biais cognitifs ? Tout simplement parce que les données sur lesquelles elles sont entrainées sont générées par des humains, donc déjà biaisées. Prenons l'exemple d'une IA entraînée sur des données extraites d’Internet. Un article assez ancien du Guardian mettait déjà en garde l'opinion publique en 2018 contre les dangers d’une domination d’Internet par des hommes blancs : « Ainsi, moins de 20 % du monde conçoit notre compréhension de 80 % du monde. » Les chiffres ont peut-être changé depuis, mais la conclusion est la même : en produisant la majorité du contenu d'Internet, cette petite partie de la population diffuse sa propre vision du monde et ses propres stéréotypes. Alors que cela posait déjà problème il y a 6 ans, cela est d'autant plus préoccupant maintenant que des IA s’entraînent sur ces données. L’IA essaie de trouver une logique et une corrélation dans toutes ces données sans aucun sens critique. Elle reproduit et, plus inquiétant encore, accentue parfois ces stéréotypes. Par exemple, dans un article (beaucoup plus récent) publié par Bloomberg, il a été prouvé qu'un outil d'IA de conversion texte-image appelé Stable Diffusion accentuait les stéréotypes de race et de genre, y compris le stéréotype que mon fils a lui-même créé !

Vaincre les biais cognitifs dans le cerveau humain et dans l’IA est un défi et sera déterminant si nous voulons construire une société plus inclusive et égalitaire. Pour mes enfants, je fais de mon mieux pour suivre les bons conseils trouvés dans « How to raise kids who aren't assholes » (je vous laisse traduire le titre par vous-même!) de Melinda Wenner Moyer : comprendre mes propres préjugés, expliquer les différences à mes enfants, les laisser expérimenter et apprécier la diversité, et apprendre à lutter contre le racisme. Concernant l’IA, la solution idéale serait d’utiliser des données d’entrée irréprochables et d’éviter le phénomène « garbage in, garbage out ». Consacrer du temps et des ressources au nettoyage des données dès le départ est un investissement qui en vaut la peine pour éviter de futurs problèmes éthiques, réputationnels et, probablement un jour, juridiques. Mais même avec les meilleures intentions pour nettoyer les données, il faut toujours remettre en question l’algorithme lui-même, essayer de comprendre ses processus de pensée, le tester encore et encore, car on ne sait jamais quand de nouveaux biais cognitifs pourraient apparaitre et entraîner des conséquences imprévues. Quant à vous, je vous invite à tester vos propres biais cognitifs avec le Harvard Project Implicit, vous pourriez être surpris des résultats et avoir envie de travailler dessus vous aussi !

No comments yet
Search