Réflexions sur l’Intelligence Artificielle

L’histoire de l’IA (Intelligence Artificielle) est assez courte et montre que ce domaine a beaucoup progressé en une soixantaine d’années. En effet, nous sommes passés du premier ordinateur qui pouvait faire quelques calculs à des machines comme Watson, Deep Blue et AlphaGo capables de rivaliser et de gagner contre les meilleurs joueurs du monde d’échecs et du jeu de Go. Même si le domaine de l’IA a connu des hauts et des bas, cela n’a pas empêché à l’IA de progresser globalement. Les progrès dans l’algorithmique, l’accroissement de la puissance de calcul des ordinateurs et la science des données ont permis de faire avancer l’IA ces dernières années.

Les géants du web comme Google, Facebook, IBM, Microsoft et Amazon investissent tous dans ce domaine et constituent des équipes d’experts en IA pour faire de la R&D. Par exemple, Facebook qui a vu le potentiel de l’IA,  a ouvert récemment un centre de recherche d’IA, principalement pour la réalité virtuelle autour de leur casque Oculus VR et aussi pour développer des outils de reconnaissance de voix et d’images.

Ces derniers temps, on entend beaucoup parler de l’IA (Intelligence Artificielle) avec le Machine Learning (une des branches de l’IA) et le Deep Learning (une technique du machine learning qui utilise des réseaux de neurones artificiels). Le Deep Learning se rapproche de l’IA « forte » car il se base sur l’apprentissage, c’est-à-dire qu’il emmagasine de nouvelles données et modifient son propre fonctionnement. Cette technique a fait ses preuves comme le montre AlphaGo  qui est un programme informatique basé sur le Deep Learning, développé par Google DeepMind, et qui a battu un des meilleurs joueurs mondiaux du jeu de Go. La programmation d’un joueur de Go est beaucoup plus difficile que celle d’un joueur d’échecs car le jeu de Go présente bien plus de combinaisons possibles que le jeu d’échecs. Le superordinateur d’IBM, Deep Blue, qui a battu le champion du monde d’échecs, utilisait un programme de recherche exhaustive, en d’autres termes, il testait toutes les solutions possibles. La recherche exhaustive est un bon moyen si on dispose d’une grande puissance de calcul, ce qui était le cas avec un superordinateur, mais cette technique présente un défaut, qui est le nombre de solutions à tester et une grande puissance de calcul. Si ce nombre de solutions est très grand, comme le jeu de Go, la recherche exhaustive est inefficace car nécessite une trop grande puissance de calcul et un temps d’exécution conséquent. D’où l’intérêt d’améliorer et de créer de nouveaux algorithmes, pour faire mieux avec moins de puissance de calcul. Le Deep Learning est pour l’instant une bonne solution pour résoudre certains problèmes et se rapproche de l’IA forte.

Cependant, le principal objectif de l’IA forte, est de créer une machine qui soit capable de penser, réfléchir, ressentir des sentiments, qui soit à l’identique du fonctionnement du système cognitif de l’être humain. Je pense qu’on en est encore loin, même si l’IA a fait beaucoup de progrès. Peut-être qu’il faudra revenir aux bases de l’IA, pour pouvoir atteindre une vraie IA forte ou peut-être qu’il n’est pas possible d’atteindre une vraie IA forte.

L’IA faible se différencie de l’IA forte par le fait que le programme informatique simule l’intelligence. Par exemple, Watson est un programme informatique d’IA qui est proche de l’IA faible car il simule l’intelligence, ce n’est pas un programme qui apprend, mais qui est basé sur des algorithmes de recherche de texte, il trouve le texte mais ne le comprend pas. Watson est en fait un programme informatique d’IA fabriqué par IBM, qui utilise le framework Hadoop qui permet au programme de parcourir très rapidement (moins de 3 secondes) une grande masse de données disponibles localement (environ 200 millions de pages). Watson a été confronté à deux adversaires humains dans une émission de jeu télévisé « Jeopardy! » et il a remporté le jeu télévisé en répondant à des questions formulées en langage naturel. Comme Watson est capable de comprendre le langage naturel et capable de trouver rapidement une réponse, il a été utilisé dans le secteur médical en assistant des médecins. Par exemple, un médecin de l’université de Tokyo et son département des Sciences Médicales a utilisé le programme Watson pour l’aider à diagnostiquer un cas rare de leucémie, et en quelques minutes, le programme a su trouver la véritable cause. Les médecins ont estimé qu’il leur aurait fallu deux semaines pour trouver cette cause.

La possibilité de créer une conscience dans une machine est encore incertaine. Les machines fonctionnent en binaire, ils ne calculent qu’avec des 1 et des 0, alors que le cerveau humain est bien plus complexe et  fonctionnent avec des neurones. Aujourd’hui, on n’est incapable de construire un cerveau artificiel. Certains freins ont été émis par certains experts comme le fait que la conscience soit propre des organismes vivants, que les machines n’ont pas le langage approprié pour avoir une intelligence semblable à l’humain ou qu’une machine ne peut que calculer et pas penser. Cependant, je pense qu’il est encore tôt pour affirmer ces freins à l’IA, on ne sait pas vraiment définir ce qu’est la conscience et l’histoire de la technologie humaine a souvent montré que des problèmes technologiques considérés comme impossible à résoudre ont été résolus plus tard.

Aujourd’hui, certains logiciels avec des algorithmes évolutifs sont très sophistiqués, car ils peuvent analyser et traiter une grosse masse de données (Big Data). Par exemple, dans le secteur médical, le logiciel peut étudier des dossiers de patients  et aboutir à un diagnostic parfois meilleur que le médecin. Dans ces logiciels, il n’y a pas de conscience, pas d’intelligence autonome, cela relève plus de la bonne programmation.

Certains disent que lorsque la capacité de calcul d’une machine dépassera le niveau de complexité du cerveau humain, une conscience émergera dans la machine. Je me suis toujours demandé sur quoi était basée cette affirmation, cela me paraît plus être une hypothèse aujourd’hui plutôt qu’une affirmation et relève plus de la théorie pour l’instant.

Personnellement, si c’était possible de mettre une conscience dans une machine, cela me semblerait dangereux si cette machine est connectée au réseau. Je pense qu’il faudrait un contrôle de cette machine, permettre uniquement à la machine d’avoir accès à un réseau fermé et contrôlé par l’humain, et créer un système simple capable de désactiver rapidement cette IA forte au cas où. En fait, ce que je crains, c’est que si on met une IA forte sur le réseau mondial, c’est-à-dire, une IA capable de penser, réfléchir et d’être autonome, c’est qu’elle devienne incontrôlable et qu’elle puisse provoquer de sérieux dégâts dans le monde.

L’IA est capable d’apprendre rapidement, beaucoup plus rapidement que l’humain, de nombreuses expériences ont montré qu’un hélicoptère-robot est capable d’apprendre en une demi-heure avec son algorithme évolutif, à faire des loopings parfaits, qu’un pilote n’est pas capable de faire. En fait, quand on lance ces algorithmes basés sur l’apprentissage automatique, on sait que les machines apprennent mais dans les détails, on ne sait pas vraiment ce qui se passe. Récemment, dans le cadre du programme de recherche en IA de Google Brain, deux ordinateurs ont pu créer leurs propres algorithmes pour communiquer entre eux dans un langage inconnu pour l’humain. La capacité de l’IA  à apprendre très rapidement et de dépasser les humains ainsi que la compréhension incomplète de l’IA tend à montrer qu’une IA complète et autonome sera incontrôlable si elle est lancée.

Beaucoup de personnes travaillant dans l’IA ont déjà émis quelques avertissements sur une IA complète et autonome. Elon Musk, Bill Gates et Stephen Hawking ont émis leurs avertissements et dénoncé les risques potentiels si une IA forte serait créée. Pour eux, une IA forte créée et déployée serait synonyme de la fin de l’espèce humaine. De nombreuses personnes veulent aussi interdire les armes autonomes, c’est-à-dire, des robots autonomes capables de tuer des humains.

J’entends souvent parler des trois lois de Asimov, qui protègent l’humain de la machine, mais dans la réalité, aucune de ces lois est implémenté dans les robots. Face aux progrès de l’IA, l’aspect éthique est inévitable. Je vais illustrer mes propos par un exemple concret qui est celui des voitures intelligentes. En effet, les voitures connectées, intelligentes et autonomes vont sûrement voir le jour dans un futur proche. Cependant, comme dans toute circulation, il peut y avoir des accidents inévitables, la question dont je me pose serait de savoir comment la voiture intelligente réagira face à un accident inévitable, devra-t-elle sacrifier le conducteur et ses passagers ou protéger les piétons ?

D’où la question de l’éthique dans tout cela, comment sera programmée la voiture pour faire face à ce type de situation ?

Pour conclure, je considère que l’IA complètement autonome sans contrôle est dangereuse pour l’espèce humaine. Je vois plutôt l’IA, comme un système pour nous aider à résoudre des problèmes, à nous apporter une aide et à rendre service aux humains.

A propos Nicolas Chen 63 Articles
Nicolas Chen est le Fondateur et Président de OpenDeepTech. Il est aussi un ingénieur développement logiciel qui a travaillé dans de nombreuses entreprises de divers secteurs tels que l'automobile, l'aéronautique, le médical, la robotique, la data science, le machine learning et le deep learning.

Soyez le premier à commenter

Laisser un commentaire