ChatGPT d'OpenAI est construit sur un grand modèle de langage (LLM), ce qui signifie que son système d'IA est formé sur une quantité massive de données linguistiques, permettant au chatbot de répondre aux questions ou aux commandes posées par les utilisateurs.
Le développement rapide de l'IA suscite l'inquiétude des experts en technologie. Nombre d'entre eux estiment que l'IA pourrait représenter un danger pour la société si elle n'est pas maîtrisée. Le milliardaire américain Elon Musk a identifié l'IA comme l'un des plus grands risques pour l'avenir de la civilisation humaine.
Interrogé sur les limites actuelles de l'IA, Yann Lecun a déclaré que l'IA générative entraînée sur de grands modèles linguistiques n'a aucune compréhension du monde réel, car elle est entièrement entraînée sur de grandes quantités de texte. La plupart des connaissances humaines n'ont rien à voir avec le langage ; l'expérience humaine n'est donc pas « appris » par l'IA, a expliqué LeCun.
Les systèmes d'IA actuels peuvent réussir l'examen du barreau aux États-Unis, mais ne peuvent pas charger la vaisselle dans un lave-vaisselle, quelque chose qu'un enfant de 10 ans peut apprendre en 10 minutes, a déclaré LeCun.
M. LeCun estime qu’il nous manque encore de nombreuses choses importantes pour amener l’IA au niveau d’intelligence des chiens.
Le scientifique en IA a révélé que Meta se concentre sur la recherche de formation en IA sur les données vidéo, ce qui représente un énorme défi par rapport à la formation sur LLM.
Autre exemple des limites de l'IA actuelle : un bébé de 5 mois regardera un objet flottant sans y prêter attention. Mais un bébé de 9 mois regardera le même objet et sera surpris de constater qu'il ne devrait pas flotter. Nous ne savons toujours pas comment reproduire cette capacité avec les machines actuelles. Sans elle, l'IA n'atteindra pas le niveau d'intelligence des humains, des chiens ou des chats, a déclaré LeCun.
Le professeur LeCun a également souligné qu'à l'avenir, des machines seront plus intelligentes que les humains, mais que cela ne doit pas être perçu comme une menace. Il faut plutôt considérer cela comme un avantage pour les humains : chacun disposera d'un assistant IA pour l'assister dans sa vie quotidienne, a donné LeCun à titre d'exemple.
Selon M. LeCun, les œuvres de science-fiction nous ont fait craindre que si les robots étaient plus intelligents que les humains, ils voudraient conquérir le monde. Or, il n'existe aucun lien entre l'intelligence et le désir de dominer le monde. Les systèmes d'IA sont créés sous le contrôle et la dépendance des humains.
Lien source
Comment (0)