IA symbolique contre IA non symbolique, et tout le reste?

A Non-symbolic representation: Convolutional Neural Network. (Image from: https://www.mdpi.com/1099-4300/19/6/242)

Lorsque nous essayons de développer des systèmes intelligents, nous devons déterminer comment le système capte les informations du monde qui les entoure, les représente et les traite de la même manière. L’intelligence artificielle symbolique, également connue sous le nom de GOFAI (Good Old Fashioned AI), utilise des chaînes qui représentent des entités ou des concepts du monde réel. Ces chaînes sont ensuite stockées manuellement ou de manière incrémentielle dans une base de connaissances (toute structure de données appropriée) et mises à la disposition de l’homme / de la machine en cas de besoin, et utilisées pour prendre des décisions et décisions intelligentes en fonction des faits et règles mémorisés. mis en place par la logique propositionnelle ou des techniques de calcul de prédicats de premier ordre. L’intelligence artificielle non symbolique consiste à fournir des données environnementales brutes à la machine et à lui permettre de reconnaître des motifs et de créer son propre complexe.

En regardant les définitions, l’IA non symbolique semble plus révolutionnaire, futuriste et plus franchement, plus facile pour les développeurs. Le système apprend simplement. Il peut distinguer un chat d’un chien (CIFAR-10 / CIFAR-100 avec réseaux de neurones de convolution), lire le catalogue de Dickens, puis générer ses propres romans à succès (génération de texte avec LSTM) et aider à traiter et détecter / classifier Gravitational. Ondes utilisant les données brutes des interféromètres laser de LIGO ( https://arxiv.org/abs/1711.03121 ).

Une représentation non symbolique: réseau de neurones convolutifs. (Image de: https://www.mdpi.com/1099-4300/19/6/242 )

D’autre part, l’IA symbolique semble plus volumineuse et difficile à mettre en place. Cela nécessite que les faits et les règles soient explicitement traduits en chaînes, puis fournis à un système. Les schémas ne sont pas naturellement déduits ou repris, mais doivent être explicitement rassemblés et envoyés à la cuillère au système. De plus, les faits et les règles qui changent de manière dynamique sont très difficiles à gérer dans les systèmes Symbolic AI, et les procédures d’apprentissage sont monotones et incrémentielles. Les systèmes AI non symboliques peuvent effectuer des corrections rapides et se configurer facilement pour gérer les nouvelles données en conflit (techniques d’optimisation convexe).

Andrew Brown, fondateur d’Intent Labs, a cité un de mes exemples préférés de la différence entre une intelligence artificielle symbolique et non symbolique, dans une réponse à Quora ( https://www.quora.com/What-is-the-difference-between). -l’approche symbolique et non symbolique de l’IA );

Supposons que vous ayez un homme dans une pièce et que son travail consiste à traduire la note que vous avez glissée sous la porte, de l’anglais au mandarin. Cela ressemble à un flux de travail assez simple. Glissez la note, traduisez, obtenez la note.
S’il était une IA symbolique, il ne connaît pas le mandarin mais dispose d’une vaste bibliothèque de traductions de l’anglais en mandarin, qu’il peut utiliser pour créer un produit fini. Il reçoit votre note et effectue ensuite le difficile trajet qui consiste à parcourir le corpus géant et à générer sa réponse.
S’il était une IA non symbolique, il connaît le mandarin. Reçoit la note, la traduit pour vous et la renvoie.

Il peut sembler que l’IA non symbolique est cette solution magique incroyable et globale que toute l’humanité attendait. Cependant, il y a un problème. Comme beaucoup de choses, c’est compliqué.

L’intelligence artificielle non symbolique (comme les algorithmes d’apprentissage profond) sollicite énormément les données. Ils ont besoin d’énormes quantités de données pour pouvoir apprendre efficacement toute représentation. Ils créent également des représentations trop abstraites ou complexes sur le plan mathématique pour être vues et comprises.
Prenant l’exemple du traducteur mandarin, il le traduirait pour vous, mais il lui serait très difficile d’expliquer exactement comment il l’a fait si instantanément. De plus, devenir un expert en traduction anglais-mandarin n’est pas une tâche facile.

L’intelligence artificielle symbolique, par contre, a déjà été fournie aux représentations et peut donc cracher ses inférences sans avoir à comprendre exactement ce qu’elles signifient. Les représentations sont également écrites dans un langage compréhensible au niveau humain.
Dans l’exemple du traducteur Mandarin avec une bibliothèque de livres expliquant la traduction de l’anglais en mandarin, le traducteur peut vous guider tout au long du processus suivi pour atteindre la chaîne traduite finale. Il prendrait beaucoup plus de temps à générer sa réponse et à vous guider, mais il PEUT le faire.

Le maître des échecs Garry Kasparov se fait battre par une IA symbolique et tout le monde sait comment!

 

Ainsi, en tant qu’êtres humains créant des systèmes intelligents, il est logique d’avoir des applications qui contiennent des blocs / processus compréhensibles et interprétables. Par conséquent, jeter les symboles peut empêcher l’IA de sortir de la compréhension humaine et, au bout d’un moment, les systèmes intelligents prendront des décisions parce qu’ils «le peuvent mathématiquement». De plus, les systèmes d’intelligence artificielle non symboliques dépendent généralement d’outils et de concepts d’optimisation mathématique définis formellement. Cela implique de modéliser l’énoncé du problème en termes de problème d’optimisation. Cependant, de nombreux problèmes d’intelligence artificielle dans le monde réel ne peuvent ou ne doivent pas être modélisés en termes de problème d’optimisation.
Il est donc assez clair que la représentation symbolique est toujours nécessaire sur le terrain. Cependant, comme on peut en déduire, où et quand la représentation symbolique est utilisée, dépend du problème.

Par exemple, Analyse de l’accès direct à la mémoire ( https://www.cs.northwestern.edu/academics/courses/325/readings/dmap.php ) étudiée par le professeur Chris Reisbeck ( https://www.cs.northwestern.edu). /~riesbeck/index.html) dans le domaine de la compréhension du langage naturel, est utilisée pour construire la mémoire épisodique de base afin de comprendre le langage naturel, utilise des représentations symboliques du monde réel stockées dans des systèmes hiérarchiques pour représenter des informations et des connexions sémantiques entre chaque objet dans le contexte. Il est fait référence à ces informations épisodiquement stockées lorsqu’une déclaration analysée de bas en haut interroge la base de connaissances sur un contexte / fait ou une règle particulier. Un autre exemple est celui de jeux comme Echecs, qui nécessitent des représentations syntaxiques de l’état actuel du tableau, de ce que chaque élément est et de ce qu’il peut faire, pour prendre les décisions appropriées en vue d’un déménagement ultérieur.

Par conséquent, il semble assez important de comprendre que lorsque nous disposons d’informations suffisantes sur les acteurs et les acteurs de l’environnement d’un système intelligent spécialisé hautement qualifié, il devient plus important d’utiliser une représentation symbolique plutôt que non symbolique.
Cependant, ce qui pourrait être encore plus excitant, est l’intégration de représentations symboliques et non symboliques. Ils peuvent s’entraider pour parvenir à une représentation globale des données brutes, ainsi que des concepts abstraits qu’elles contiennent. Par exemple, nous pouvons utiliser un système d’IA non symbolique (Computer Vision) utilisant l’image d’une pièce d’échecs pour générer une représentation symbolique nous indiquant quelle est la pièce et où elle se trouve sur le tableau ou utilisée pour comprendre les attributs actuels des pièces. l’état du conseil. Ces informations peuvent ensuite être stockées de manière symbolique dans la base de connaissances et utilisées pour prendre des décisions pour le joueur d’échecs en intelligence artificielle, comme pour AlphaZero de Deep Mind ( https://arxiv.org/pdf/1712.01815.pdf).) (il utilise une intelligence artificielle sous-symbolique, mais génère toutefois, dans la plupart des cas, des représentations non symboliques). En bref, analogue à l’homme, le système basé sur la représentation non symbolique peut agir comme les yeux (avec le cortex visuel) et le système symbolique peut agir comme la partie logique du cerveau humain qui résout des problèmes.

A propos Rhett D'souza 2 Articles
Rhett D'souza est un étudiant diplômé en intelligence artificielle de la Northwestern University. Son domaine d'expertise est l'informatique et l'intelligence artificielle. Il s'intéresse plus particulièrement à la Data Science, Machine Learning, Deep Learning et au traitement de données.

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*