Les réseaux de neurones artificiels d’une IA peuvent être programmés pour apprendre de l’expérience. Il suffit d’y inclure des algorithmes d’apprentissage. En faisant cela, une intelligence artificielle extrait des schémas redondants afin de les prendre en compte dans ses prises de décision. Mais les chercheurs se sont vite aperçus qu’en se calquant sur les comportements humains, une IA pouvait absorber et véhiculer des préjugés ! C’est ce qui s’appelle le biais algorithmique. Un problème éthique de l’IA qui peut heureusement être corrigé.
Le moteur de recherche Google a été la cible d’une campagne de dénonciation en 2013, menée par l’association ONU Femmes. Les militantes ont démontré que les suggestions de recherche de Google étaient sexistes. Quand vous tapiez « une femme doit… », Google proposait des suggestions du type « rester à la maison », « savoir cuisiner » ou encore « être belle pour son mari » … Ce n’est pas génial. Le souci a été corrigé en 2018 avec la création de l’algorithme What-if-tool, un outil spécial pour détecter les préjugés. Google a d’ailleurs laissé accès au code de cet algorithme contre le sexisme et le racisme en accès libre, pour que ceux qui voudraient s’en inspirer puissent le faire.
D’un point de vue sociétal, il est primordial de faire en sorte que les IA ne véhiculent pas des idées discriminatoires. Nous avons déjà suffisamment morflé avec les catalogues de Toys’R’Us qui sortaient chaque année pour Noël. Des petites filles qui jouent avec des poupées roses et des petits garçons qui s’amusent avec des voitures rouges, c’est trop vintage. Remarquez que si Google vous suggère une recherche inappropriée, vous pouvez le signaler (en bas à droite de la capture d’écran ci-contre).