15€ Offerts sur votre première commande avec le code : BIENVENUE15

Publié le 31/05/2022

Histoire de l’intelligence artificielle, de 1950 à aujourd’hui

L’intelligence artificielle est née avec l’informatique, comme si le fantasme de créer un humain artificiel était le moteur par lequel tout a commencé.

Image promotionnelleImage promotionnelle

1950 : les débuts de l’intelligence artificielle

L’IA est un programme informatique qui imite l’intellect humain et la pensée, grâce à un réseau de neurones artificiel. En gros, le programme ne se contente pas d’exécuter des tâches sur demande, mais réfléchit et prend des décisions. Toutes les recherches sont basées sur le postulat que la pensée humaine peut être mécanisée. Une machine qui a l’air de « penser », aussi douée soit-elle, fait preuve d’intelligence artificielle faible. Dans le jargon, on parle d’intelligence artificielle forte, quand une machine donne en plus l’impression d’avoir des émotions et des sentiments. Au point que l’on peinerait à reconnaître s’il s’agit d’un humain ou d’une machine. 


Il faut savoir que le concept d’intelligence artificielle forte est né avec l’informatique, comme si c’en était l’aboutissement logique. Le robot qui ressemble trait pour trait à un humain, est une idée qui date des années 1950. Les ordinateurs pesaient plusieurs tonnes, mais les chercheurs s’étaient déjà enflammés. On pourrait même dire que c’est ce fantasme de créer une machine qui ressemble à un humain qui a créé l’informatique. Et que tous les équipements high-tech que nous avons ne sont que des productions collatérales. Les pionniers de l’informatique, habités par l’obsession de l’IA, se sont rapidement trouvés bloqués à cause du manque de technologie. Mais sur le papier, ils savaient que cela pourrait fonctionner. Parmi tous ces chercheurs, un nom sort clairement du lot : le mathématicien et cryptologue britannique Alan Turing.

undefined
undefined

1950 : les débuts de l’intelligence artificielle

L’IA est un programme informatique qui imite l’intellect humain et la pensée, grâce à un réseau de neurones artificiel. En gros, le programme ne se contente pas d’exécuter des tâches sur demande, mais réfléchit et prend des décisions. Toutes les recherches sont basées sur le postulat que la pensée humaine peut être mécanisée. Une machine qui a l’air de « penser », aussi douée soit-elle, fait preuve d’intelligence artificielle faible. Dans le jargon, on parle d’intelligence artificielle forte, quand une machine donne en plus l’impression d’avoir des émotions et des sentiments. Au point que l’on peinerait à reconnaître s’il s’agit d’un humain ou d’une machine. 


Il faut savoir que le concept d’intelligence artificielle forte est né avec l’informatique, comme si c’en était l’aboutissement logique. Le robot qui ressemble trait pour trait à un humain, est une idée qui date des années 1950. Les ordinateurs pesaient plusieurs tonnes, mais les chercheurs s’étaient déjà enflammés. On pourrait même dire que c’est ce fantasme de créer une machine qui ressemble à un humain qui a créé l’informatique. Et que tous les équipements high-tech que nous avons ne sont que des productions collatérales. Les pionniers de l’informatique, habités par l’obsession de l’IA, se sont rapidement trouvés bloqués à cause du manque de technologie. Mais sur le papier, ils savaient que cela pourrait fonctionner. Parmi tous ces chercheurs, un nom sort clairement du lot : le mathématicien et cryptologue britannique Alan Turing.

Alan Turing, l’homme sans qui nous n’aurions peut-être jamais eu d’ordinateurs

Alan Turing est un génie des maths. À 16 ans, il étudie les travaux d’Einstein, d’Euclide et de Galilée. Il n’était pourtant pas très bon élève, car il délaissait complètement les matières littéraires ou artistiques. Il a conçu l’ancêtre de l’ordinateur, qu’il appelait à l’époque « la machine universelle ». Lors de la Seconde Guerre mondiale, il obtient des financements pour la construire dans une optique bien précise : décrypter le code Enigma, que les nazis utilisaient pour communiquer. Il a réussi, ce qui a largement contribué à la défaite du troisième Reich. Alan Turing ne s’arrête pas là.


En 1952, il met au point le premier ordinateur joueur d’échecs, baptisé Turochamp. Bon, il mettait bien 30 minutes à calculer son coup, mais ça fonctionnait. Ce ne sera qu’en 1996 qu’un champion du monde des échecs (Garry Kasparov) se fera battre par un programme développé par IBM, Deep Blue. Deep Blue sera 10 millions de fois plus puissant que Turochamp.


Alan Turing savait qu’il serait un jour possible de programmer le comportement d’une machine :

  • Plus intelligente qu’un être humain,
  • Qui donne l’impression d’avoir une conscience,
  • Qui sera difficile à considérer comme un objet.


Il a d’ailleurs mis au point très rapidement le test de Turing : une évaluation pour mesurer le degré de ressemblance d’une machine avec un humain. Si Alan Turing avait vécu 20 ans de plus, nous aurions sans doute 40 ans d’avance en matière de technologies. Mais il se fait condamner par le gouvernement britannique pour son homosexualité. Pour éviter la peine de mort, il accepte la castration chimique. Ce traitement hormonal expérimental le mènera au suicide, en 1954, à l‘âge de 41 ans. L’histoire raconte qu’il a croqué dans une pomme empoisonnée au cyanure. Un symbole qu’Apple a repris pour son logo, en hommage. Vous pouvez découvrir la vie d’Alan Turing dans l’excellent film Imitation Game de Morten Tyldum, disponible sur Netflix.

undefined

1950 – 1980 : la frustration des chercheurs en IA

Tous les chercheurs en intelligence artificielle de cette époque vont connaître une terrible frustration. Les ordinateurs ne sont tout simplement pas assez puissants pour mettre en place les programmes qu’ils inventent sur papier. L’optimisme est pourtant là. Ils savent que c’est possible. Voilà quelques grandes dates de l’IA :


  • 1949 : Warren Weaver conceptualise la traduction automatique des langues étrangères.
  • 1959 : Arthur Samuel crée un programme capable de jouer aux dames et d’apprendre de ses erreurs.
  • 1966 : Joseph Weizenbaum met au point le premier agent conversationnel (le premier chatbot finalement), ELIZA. Avec ses 128 Ko de mémoire vive, elle était considérée comme une machine de compétition. L’intelligence artificielle ELIZA a réussi à tromper des humains, qui pensaient tchatter avec d’autres humains. Mais à cette époque, les disques durs sont trop petits et ne peuvent pas contenir assez de données pour aller plus loin dans les recherches. 


Pas assez de mémoire vive. Pas assez d’espace de stockage. Pas de processeurs assez puissants… Les recherches stagnent pendant longtemps et les financements commencent à se faire rares dans les années 1970. C’est l’hiver de l’intelligence artificielle. Les investissements de masse ne reprendront que dans les années 1980, en même temps qu’un grand engouement pour la littérature et le cinéma de science-fiction. Le matériel informatique a évolué. Les ordinateurs commencent à adopter un format portable. Les chercheurs auront petit à petit accès à la technologie qui leur manquait pour continuer le progrès de l’IA.


Comme le dit le paradoxe de Moravec : « le plus difficile en robotique est souvent ce qui est le plus facile pour l'homme ».

undefined
undefined

1950 – 1980 : la frustration des chercheurs en IA

Tous les chercheurs en intelligence artificielle de cette époque vont connaître une terrible frustration. Les ordinateurs ne sont tout simplement pas assez puissants pour mettre en place les programmes qu’ils inventent sur papier. L’optimisme est pourtant là. Ils savent que c’est possible. Voilà quelques grandes dates de l’IA :


  • 1949 : Warren Weaver conceptualise la traduction automatique des langues étrangères.
  • 1959 : Arthur Samuel crée un programme capable de jouer aux dames et d’apprendre de ses erreurs.
  • 1966 : Joseph Weizenbaum met au point le premier agent conversationnel (le premier chatbot finalement), ELIZA. Avec ses 128 Ko de mémoire vive, elle était considérée comme une machine de compétition. L’intelligence artificielle ELIZA a réussi à tromper des humains, qui pensaient tchatter avec d’autres humains. Mais à cette époque, les disques durs sont trop petits et ne peuvent pas contenir assez de données pour aller plus loin dans les recherches. 


Pas assez de mémoire vive. Pas assez d’espace de stockage. Pas de processeurs assez puissants… Les recherches stagnent pendant longtemps et les financements commencent à se faire rares dans les années 1970. C’est l’hiver de l’intelligence artificielle. Les investissements de masse ne reprendront que dans les années 1980, en même temps qu’un grand engouement pour la littérature et le cinéma de science-fiction. Le matériel informatique a évolué. Les ordinateurs commencent à adopter un format portable. Les chercheurs auront petit à petit accès à la technologie qui leur manquait pour continuer le progrès de l’IA.


Comme le dit le paradoxe de Moravec : « le plus difficile en robotique est souvent ce qui est le plus facile pour l'homme ».

1980 à nos jours : l’intuition artificielle

Nous les humains, nous avons une intelligence intuitive qui nous guide rapidement dans certaines prises de décision complexe. Nous pouvons par exemple : 

  • Traverser la rue sans se faire écraser par une voiture, 
  • En évitant de marcher sur la crotte de chien qui est au milieu du passage, 
  • Sans bousculer la vieille dame qui est à gauche.


Pour une machine, c’est beaucoup plus compliqué, car il lui faut du temps pour analyser son environnement. Selon la définition du psychologue Gary A. Klein « l’intuition est un raisonnement ultra-rapide nourri par l’expérience et l’observation attentive de plusieurs facteurs ». Une machine doit trier les informations avant de traverser. Elle perçoit la voiture, la vieille dame et la crotte de chien. Mais elle voit aussi le pigeon qui est sur l’arbre, le coup de tonnerre qui annonce la pluie, la boulangère qui ferme sa boutique, l’enfant qui fait tomber son doudou par terre, etc. Ce ne sont pas des informations qui vont l’aider à traverser. L’IA doit être capable de créer des catégories de problèmes et de classifier les informations. Chaque décision potentielle doit être accompagnée d’un score. C’est la décision au meilleur score qui sera transformée en action. 


Est-ce qu’une machine peut avoir de l’intuition ? Il faudrait pour cela qu’elle puisse apprendre de son expérience. Ce qui est possible, grâce aux algorithmes d’apprentissage autonome.

undefined

Le machine learning, ces intelligences artificielles qui apprennent toutes seules

L’apprentissage autonome d’une machine est un concept qui existe depuis longtemps, dès les années 1960. Mais ce n’est qu’autour des années 2000 que les chercheurs en IA disposent d’un matériel assez performant pour pouvoir s’éclater. Comment fonctionne l’apprentissage automatique d’une IA ? Le programme doit pouvoir détecter des schémas redondants, les extraire pour les analyser, les tester et les déployer. Cela se traduit par un ajustement du comportement au fil du temps. Autrement dit : une machine qui apprend de ses erreurs. 


La grande majorité des logiciels sont aujourd’hui basés sur une intelligence artificielle auto-apprenante. Il est difficile de s’en rendre compte parce que dans nos esprits, l’intelligence artificielle est toujours liée à l’idée d’humain artificiel. Mais les réseaux de neurones artificiels sont devenus une norme : la reconnaissance faciale ou vocale, le deep face, les options de votre appareil photo, les algorithmes de recommandation sur Netflix ou Amazon Prime, les voitures qui se garent toutes seules, l’aspirateur robot qui, etc. L’intelligence artificielle a enfin toute la technologie dont elle a besoin pour évoluer, mais se heurte pour la première fois de son histoire à la réalité des dilemmes éthiques induits par son utilisation. 


En 1950, un seul programme d’intelligence artificielle fonctionnait avec un ordinateur de plusieurs tonnes. En 2022, votre smartphone de 250 grammes est bourré de logiciels basés sur l’IA.

undefined
undefined

Le machine learning, ces intelligences artificielles qui apprennent toutes seules

L’apprentissage autonome d’une machine est un concept qui existe depuis longtemps, dès les années 1960. Mais ce n’est qu’autour des années 2000 que les chercheurs en IA disposent d’un matériel assez performant pour pouvoir s’éclater. Comment fonctionne l’apprentissage automatique d’une IA ? Le programme doit pouvoir détecter des schémas redondants, les extraire pour les analyser, les tester et les déployer. Cela se traduit par un ajustement du comportement au fil du temps. Autrement dit : une machine qui apprend de ses erreurs. 


La grande majorité des logiciels sont aujourd’hui basés sur une intelligence artificielle auto-apprenante. Il est difficile de s’en rendre compte parce que dans nos esprits, l’intelligence artificielle est toujours liée à l’idée d’humain artificiel. Mais les réseaux de neurones artificiels sont devenus une norme : la reconnaissance faciale ou vocale, le deep face, les options de votre appareil photo, les algorithmes de recommandation sur Netflix ou Amazon Prime, les voitures qui se garent toutes seules, l’aspirateur robot qui, etc. L’intelligence artificielle a enfin toute la technologie dont elle a besoin pour évoluer, mais se heurte pour la première fois de son histoire à la réalité des dilemmes éthiques induits par son utilisation. 


En 1950, un seul programme d’intelligence artificielle fonctionnait avec un ordinateur de plusieurs tonnes. En 2022, votre smartphone de 250 grammes est bourré de logiciels basés sur l’IA.

Laissez-nous un commentaire

Avis garantis

Quel Bon Plan a choisi la société des avis garantis pour effectuer une collecte des avis clients certifiée et garantie par un tiers indépendant.

Communauté du Coq vert

La Communauté du Coq Vert est une communauté de dirigeants engagée dans la transition écologique et énergétique...

Ecommerce responsable

Nous sommes signataires de la charte du Ministère de la Transition écologique avec la FEVAD (fédération du e-commerce...

Entrepreneurs pour la planète

Nous faisons partie d'Entrepreneurs pour la planète, un collectif d'entrepreneurs qui travaillent ensemble pour avoir un réel impact...

QuelBonPlan
QuelBonPlan