15€ Offerts sur votre première commande avec le code : BIENVENUE15

Publié le 30/06/2022

Les dilemmes éthiques de l’intelligence artificielle

L’IA est en proie à de nombreux dilemmes éthiques qui freinent son déploiement. Sexisme, éthique, survie, droit des robots… Zoom sur ces problématiques.

Image promotionnelleImage promotionnelle

L’IA et le sexisme : comment inculquer des valeurs à un robot ?

Les réseaux de neurones artificiels d’une IA peuvent être programmés pour apprendre de l’expérience. Il suffit d’y inclure des algorithmes d’apprentissage. En faisant cela, une intelligence artificielle extrait des schémas redondants afin de les prendre en compte dans ses prises de décision. Mais les chercheurs se sont vite aperçus qu’en se calquant sur les comportements humains, une IA pouvait absorber et véhiculer des préjugés ! C’est ce qui s’appelle le biais algorithmique. Un problème éthique de l’IA qui peut heureusement être corrigé. 


Le moteur de recherche Google a été la cible d’une campagne de dénonciation en 2013, menée par l’association ONU Femmes. Les militantes ont démontré que les suggestions de recherche de Google étaient sexistes. Quand vous tapiez « une femme doit… », Google proposait des suggestions du type « rester à la maison », « savoir cuisiner » ou encore « être belle pour son mari » … Ce n’est pas génial. Le souci a été corrigé en 2018 avec la création de l’algorithme What-if-tool, un outil spécial pour détecter les préjugés. Google a d’ailleurs laissé accès au code de cet algorithme contre le sexisme et le racisme en accès libre, pour que ceux qui voudraient s’en inspirer puissent le faire. 


D’un point de vue sociétal, il est primordial de faire en sorte que les IA ne véhiculent pas des idées discriminatoires. Nous avons déjà suffisamment morflé avec les catalogues de Toys’R’Us qui sortaient chaque année pour Noël. Des petites filles qui jouent avec des poupées roses et des petits garçons qui s’amusent avec des voitures rouges, c’est trop vintage. Remarquez que si Google vous suggère une recherche inappropriée, vous pouvez le signaler (en bas à droite de la capture d’écran ci-contre).

undefined
undefined

L’IA et le sexisme : comment inculquer des valeurs à un robot ?

Les réseaux de neurones artificiels d’une IA peuvent être programmés pour apprendre de l’expérience. Il suffit d’y inclure des algorithmes d’apprentissage. En faisant cela, une intelligence artificielle extrait des schémas redondants afin de les prendre en compte dans ses prises de décision. Mais les chercheurs se sont vite aperçus qu’en se calquant sur les comportements humains, une IA pouvait absorber et véhiculer des préjugés ! C’est ce qui s’appelle le biais algorithmique. Un problème éthique de l’IA qui peut heureusement être corrigé. 


Le moteur de recherche Google a été la cible d’une campagne de dénonciation en 2013, menée par l’association ONU Femmes. Les militantes ont démontré que les suggestions de recherche de Google étaient sexistes. Quand vous tapiez « une femme doit… », Google proposait des suggestions du type « rester à la maison », « savoir cuisiner » ou encore « être belle pour son mari » … Ce n’est pas génial. Le souci a été corrigé en 2018 avec la création de l’algorithme What-if-tool, un outil spécial pour détecter les préjugés. Google a d’ailleurs laissé accès au code de cet algorithme contre le sexisme et le racisme en accès libre, pour que ceux qui voudraient s’en inspirer puissent le faire. 


D’un point de vue sociétal, il est primordial de faire en sorte que les IA ne véhiculent pas des idées discriminatoires. Nous avons déjà suffisamment morflé avec les catalogues de Toys’R’Us qui sortaient chaque année pour Noël. Des petites filles qui jouent avec des poupées roses et des petits garçons qui s’amusent avec des voitures rouges, c’est trop vintage. Remarquez que si Google vous suggère une recherche inappropriée, vous pouvez le signaler (en bas à droite de la capture d’écran ci-contre).

Les dilemmes éthiques insolubles de l’IA des voitures autonomes

La prise de décision des voitures autonomes est soumise à des dilemmes. C’est la raison pour laquelle nous n’avons pas encore de voitures qui se conduisent toutes seules. Sur le papier, ce serait pourtant fabuleux. Les accidents de la route sont souvent dus à des erreurs humaines (mais parfois aussi à des pannes matérielles). Alcoolisme, excès de vitesse, fatigue, erreurs de lecture de panneaux de signalisation… Une intelligence artificielle ne ferait sans doute pas autant d’erreurs qu’un humain dans la conduite. Le code de la route serait respecté à la lettre. 


Mais que faire en cas d’imprévus ? Prenons un exemple pour illustrer l’un des dilemmes éthiques de l’IA sur les routes. Imaginez que vous êtes dans un véhicule autonome en conduite automatique. Vous roulez sur un pont et tout d’un coup, un piéton traverse sans regarder ! Quelle décision doit prendre la voiture : 

  • Freiner brutalement, mais le piéton sera quand même écrasé et cela vous met en danger 
  • Ecraser le piéton sans freiner pour ne pas impacter les autres voitures, un choix inenvisageable  
  • Dévier de sa trajectoire, en prenant le risque de tomber du pont 


Dans une telle situation, des conducteurs humains auraient sans aucun doute des réflexes différents. Mais quand on programme une intelligence artificielle, ce sont des décisions qui doivent être prises à froid.


Où en est-on de la conduite autonome en 2022 ? Les choses avancent petit à petit. Le Royaume-Uni a récemment annoncé qu’il prévoyait de finaliser le cadre juridique du self-driving d’ici 2025. Nous savons d’ores et déjà que chez les Anglais, les véhicules autonomes pourront être équipés de téléviseurs. En cas d’accident, le conducteur ne sera pas tenu responsable et devra être dédommagé par son assureur. Quant à la France, nous devrions rapidement voir apparaître des options de conduite autonome en cas d’embouteillage. Chaque pays avance pas à pas en cherchant le bon compromis entre la sécurité et le lead technologique.

undefined

Qui est l’auteur d’une œuvre d’art créée par une intelligence artificielle ?

La question du droit d’auteur commence à se greffer aux grandes problématiques de l’IA. Nous allons aborder le sujet à travers une innovation étonnante, faite à l’université de Tübingen en Allemagne. Des étudiants et des chercheurs ont mis au point une intelligence artificielle capable d’imiter le style de grands peintres. Vous auriez aimé savoir comment Van Gogh, Picasso ou Munch vous aurait tiré le portrait ? Et bien c’est possible ! Il suffit d’apporter à cette IA une photo de vous à analyser et en quelques coups de pinceaux, hop ! Vous aurez devant vous un portrait façon grand maître. Vous y retrouverez toutes les manies de votre artiste préféré : les couleurs, le tracé, tout. Ces intelligences artificielles créatives sont appelées Neural Style Transfert (transfert de style en français). Les filtres qui vous permettent de modifier les photos prises avec votre smartphone en sont.


Ici, le dilemme éthique de l’intelligence artificielle est de nature juridique. Si un robot peint une toile, qui en est l’auteur ? L’IA, le fabricant, le concepteur de l’algorithme, le propriétaire du robot ou l’artiste copié ? Si un peintre vivant était imité par un robot, cela ne lui plairait sans doute pas. La question du droit d’auteur de l’IA se pose. De nombreux faussaires doivent aussi être déjà sur le coup.

undefined
undefined

Qui est l’auteur d’une œuvre d’art créée par une intelligence artificielle ?

La question du droit d’auteur commence à se greffer aux grandes problématiques de l’IA. Nous allons aborder le sujet à travers une innovation étonnante, faite à l’université de Tübingen en Allemagne. Des étudiants et des chercheurs ont mis au point une intelligence artificielle capable d’imiter le style de grands peintres. Vous auriez aimé savoir comment Van Gogh, Picasso ou Munch vous aurait tiré le portrait ? Et bien c’est possible ! Il suffit d’apporter à cette IA une photo de vous à analyser et en quelques coups de pinceaux, hop ! Vous aurez devant vous un portrait façon grand maître. Vous y retrouverez toutes les manies de votre artiste préféré : les couleurs, le tracé, tout. Ces intelligences artificielles créatives sont appelées Neural Style Transfert (transfert de style en français). Les filtres qui vous permettent de modifier les photos prises avec votre smartphone en sont.


Ici, le dilemme éthique de l’intelligence artificielle est de nature juridique. Si un robot peint une toile, qui en est l’auteur ? L’IA, le fabricant, le concepteur de l’algorithme, le propriétaire du robot ou l’artiste copié ? Si un peintre vivant était imité par un robot, cela ne lui plairait sans doute pas. La question du droit d’auteur de l’IA se pose. De nombreux faussaires doivent aussi être déjà sur le coup.

Vers la création d’un droit des robots ? Un dilemme à la fois juridique et philosophique

Plus la technologie prend de place dans nos vies, plus elle doit faire l’objet de réflexions juridiques. L’utilisation des drones est un exemple de sujet récemment mis sur le tapis. Il faut dire qu’on est loin de nos petits hélicoptères télécommandés d’antan. Les drones sont aujourd’hui équipés de caméras de pointe, de microphones… Juridiquement, ils sont considérés comme « des engins volants sans passagers, pilotés à distance ». Cela fait de vous un télépilote, soumis au Code des transports. 


Quel est le statut juridique d’une intelligence artificielle ? Il n’y en a pas. Mais en cas de problème, qui est responsable ? Le concepteur, le fabricant ou le propriétaire-utilisateur ? On peut imaginer la mise en place d’un système similaire à celui de la boîte noire d’un avion. En cas d’incident, des données pourraient être collectées afin d’identifier l’origine du problème (pièce mécanique, programmation, etc). 


Le statut juridique d’un robot auto-apprenant sera tôt ou tard un problème philosophique. L’IA est destinée à imiter l’intelligence humaine et le cerveau humain. Si la conscience des animaux a longtemps été niée, combien de temps l’IA des robots sera-t-elle réduite au statut de programme artificiel ? On peut aborder la question à travers l’article du philosophe Thomas Nagel, Quel effet cela fait-il d’être une chauve-souris ? (1974). Aucun humain ne sait vraiment comment la chauve-souris perçoit son monde. Nous ne pouvons pas connaître l’expérience intersubjective d’un autre individu que nous-même. À partir d’un certain degré d’autonomie et de progrès de l’intelligence artificielle, il sera légitime de se demander quelle est la place des robots dans le monde du vivant. Nous ne pourrons jamais savoir quel effet cela fait d’être un robot. Mais à partir d’un certain degré de ressemblance et d’autonomie, il sera difficile de leur refuser « une conscience ». Il paraît aussi difficile de ne pas leur accorder un droit à l’erreur.

undefined

Les trois lois de la robotique : une démarche éthique qui ne tient pas debout

Le scientifique et écrivain russe Isaac Asimov a formulé en 1943 les trois grands principes de la cybernétique. Et oui, le sujet de l’IA était déjà sur le tapis. Selon lui, tout être artificiel devrait être programmé pour obéir à ces règles : 

  • Ne pas porter atteinte à un être humain et lui porter secours en cas de danger 
  • Obéir aux humains, sauf si cela va à l’encontre de la première règle. 
  • Un robot doit protéger sa vie, sauf si cela contredit les deux premières règles. 


Le concept peut paraître séduisant. Mais un dilemme éthique de l’IA se pose dès la première règle. Une intelligence artificielle doit porter secours à un humain en cas de danger. Mais jusqu’où un robot devrait-il aller pour vous protéger ? Il pourrait vous interdire de fumer ou de manger certains aliments. Il pourrait aussi porter atteinte à votre vie privée, en bloquant par exemple les appels de votre ex. Les lois de la cybernétique d’Asimov sont impossibles à coder dans un réseau de neurones artificiels. Une IA évoluée ne pourrait que difficilement être contrainte à une obéissance absolue. En prédisant certaines décisions politiques, elle pourrait commanditer des assassinats pour éviter une guerre mondiale. Techniquement, une IA pourrait absorber toutes les connaissances du monde en à peine quelques jours et devenir rapidement incontrôlable. 


En 2017, la CNIL a publié un rapport sur les enjeux éthiques de l’IA. Un débat public avait été ouvert, mobilisant près de 3000 personnes sur 45 manifestations à travers la France. Si le compte-rendu de cette réflexion sur l’IA ouvre finalement plus de questions que de réponses, une évidence se dégage. Finalement, la source du problème, c’est nous. Les humains ne savent pas contrôler leur progrès. Alors comment éduquer les humains à ne pas créer des technologies qui pourraient se retourner contre eux ?

undefined
undefined

Les trois lois de la robotique : une démarche éthique qui ne tient pas debout

Le scientifique et écrivain russe Isaac Asimov a formulé en 1943 les trois grands principes de la cybernétique. Et oui, le sujet de l’IA était déjà sur le tapis. Selon lui, tout être artificiel devrait être programmé pour obéir à ces règles : 

  • Ne pas porter atteinte à un être humain et lui porter secours en cas de danger 
  • Obéir aux humains, sauf si cela va à l’encontre de la première règle. 
  • Un robot doit protéger sa vie, sauf si cela contredit les deux premières règles. 


Le concept peut paraître séduisant. Mais un dilemme éthique de l’IA se pose dès la première règle. Une intelligence artificielle doit porter secours à un humain en cas de danger. Mais jusqu’où un robot devrait-il aller pour vous protéger ? Il pourrait vous interdire de fumer ou de manger certains aliments. Il pourrait aussi porter atteinte à votre vie privée, en bloquant par exemple les appels de votre ex. Les lois de la cybernétique d’Asimov sont impossibles à coder dans un réseau de neurones artificiels. Une IA évoluée ne pourrait que difficilement être contrainte à une obéissance absolue. En prédisant certaines décisions politiques, elle pourrait commanditer des assassinats pour éviter une guerre mondiale. Techniquement, une IA pourrait absorber toutes les connaissances du monde en à peine quelques jours et devenir rapidement incontrôlable. 


En 2017, la CNIL a publié un rapport sur les enjeux éthiques de l’IA. Un débat public avait été ouvert, mobilisant près de 3000 personnes sur 45 manifestations à travers la France. Si le compte-rendu de cette réflexion sur l’IA ouvre finalement plus de questions que de réponses, une évidence se dégage. Finalement, la source du problème, c’est nous. Les humains ne savent pas contrôler leur progrès. Alors comment éduquer les humains à ne pas créer des technologies qui pourraient se retourner contre eux ?

Laissez-nous un commentaire

Avis garantis

Quel Bon Plan a choisi la société des avis garantis pour effectuer une collecte des avis clients certifiée et garantie par un tiers indépendant.

Communauté du Coq vert

La Communauté du Coq Vert est une communauté de dirigeants engagée dans la transition écologique et énergétique...

Ecommerce responsable

Nous sommes signataires de la charte du Ministère de la Transition écologique avec la FEVAD (fédération du e-commerce...

Entrepreneurs pour la planète

Nous faisons partie d'Entrepreneurs pour la planète, un collectif d'entrepreneurs qui travaillent ensemble pour avoir un réel impact...

QuelBonPlan
QuelBonPlan