ChatGPT d'OpenAI est construit sur un grand modèle de langage (LLM), ce qui signifie que son système d'IA est formé sur une quantité massive de données linguistiques, permettant au chatbot de répondre aux questions ou aux commandes posées par les utilisateurs.
Le développement rapide de l’IA a suscité des inquiétudes parmi les experts en technologie. Beaucoup de gens pensent que l’IA pourrait représenter un danger pour la société si elle n’est pas contrôlée. Le milliardaire américain Elon Musk estime que l’IA est l’un des plus grands risques pour l’avenir de la civilisation humaine.
Interrogé sur les limites actuelles de l'IA, Yann Lecun a soutenu que l'IA générative formée sur de grands modèles de langage manque de compréhension du monde réel, car elle est entièrement formée sur de grandes quantités de texte. La plupart des connaissances humaines n’ont rien à voir avec le langage, donc cette partie de l’expérience humaine n’est pas « apprise » par l’IA, a déclaré LeCun.
Les systèmes d'IA actuels peuvent réussir l'examen du barreau aux États-Unis, mais ne peuvent pas charger la vaisselle dans un lave-vaisselle, quelque chose qu'un enfant de 10 ans peut apprendre en 10 minutes, a déclaré LeCun.
M. LeCun estime qu’il nous manque encore de nombreuses choses importantes pour amener l’IA au niveau d’intelligence des chiens.
Le scientifique de l'IA a révélé que Meta se concentre sur la recherche de formation de l'IA sur les données vidéo, ce qui représente un énorme défi par rapport à la formation sur LLM.
Dans un autre exemple des limites de l’IA actuelle, il a déclaré qu’un bébé de cinq mois regardera un objet flottant et n’y pensera pas trop. Cependant, un bébé de 9 mois regardera cet objet et sera surpris car il se rendra compte que les objets ne devraient pas voler comme ça. Nous ne savons toujours pas comment reproduire cette capacité avec les machines d’aujourd’hui. Sans cela, l’IA n’atteindra pas le niveau d’intelligence des humains, des chiens ou des chats, affirme LeCun.
Le professeur LeCun a également souligné qu’à l’avenir, il y aura des machines plus intelligentes que les humains, mais cela ne doit pas être considéré comme une menace. Nous devrions le voir comme quelque chose qui profite aux humains, chaque personne ayant un assistant IA pour l'aider dans sa vie quotidienne, a donné LeCun en exemple.
Selon M. LeCun, la science-fiction nous a fait craindre que si les robots devenaient plus intelligents que les humains, ils voudraient conquérir le monde. Cependant, il n’y a aucune corrélation entre l’intelligence et le désir de dominer le monde. Les systèmes d’IA créés doivent être sous contrôle humain et dépendants.
Lien source
Comment (0)