Il y a trois ans, évoquer la possibilité d'une IA « consciente » était le moyen le plus rapide de se faire licencier dans la Silicon Valley. Mais aujourd'hui, avec la sophistication croissante des systèmes d'IA, le monde de la technologie commence à s'ouvrir au sujet.
La startup d'IA Anthropic a récemment annoncé le lancement d'une nouvelle initiative de recherche visant à explorer la possibilité que les modèles d'IA connaissent la « conscience » à l'avenir, tandis qu'un scientifique de Google DeepMind a décrit les systèmes actuels comme des « entités étranges semblables à l'intelligence ».
Il s'agit d'un changement majeur par rapport à 2022, lorsque Google a licencié l'ingénieur Blake Lemoine après avoir affirmé que le chatbot LaMDA montrait des signes de conscience et craignait d'être fermé. Google a rejeté ces allégations, les qualifiant de « totalement infondées », et la communauté de l'IA a rapidement étouffé le débat.
Anthropic, l'entreprise à l'origine du chatbot Claude, affirme ne pas prétendre que ses modèles actuels sont conscients. Mais assumer « non » n'est plus une approche responsable, affirme Kyle Fish, un scientifique qui travaille sur le « bien-être de l'IA ».
Dans une vidéo publiée le 25 avril, Fish a soutenu que nous devons sérieusement envisager la possibilité que les systèmes d'IA acquièrent une certaine forme de conscience au fur et à mesure de leur développement. Cependant, il s'agit de questions techniques et philosophiques extrêmement complexes, et nous n'en sommes qu'aux prémices de leur compréhension.
Selon Fish , l'équipe d'Anthropic estime que la probabilité que Claude 3.7 soit conscient se situe entre 0,15 % et 15 %. Ils mènent des expériences pour tester la capacité du modèle à exprimer ses goûts et ses dégoûts, et développent des mécanismes qui permettraient à l'IA de refuser d'effectuer des tâches « désagréables ».
Le PDG d'Anthropic, Dario Amodei, a même proposé l'idée d'intégrer un bouton « Je refuse ce travail » dans les futurs systèmes d'IA - pas tant pour l'IA consciente, mais pour observer les modèles de comportement de refus et ainsi identifier les signes d'anomalies.
Chez Google DeepMind, le scientifique en chef Murray Shanahan soutient qu’il est temps de « plier ou briser » la définition traditionnelle de la conscience pour s’adapter aux nouveaux systèmes d’IA.
« Nous ne pouvons pas interagir avec eux comme nous le ferions avec un chien ou une pieuvre, mais cela ne veut pas dire qu’il n’y a absolument rien », a déclaré Shanahan dans un podcast publié le 25 avril.
Google a également manifesté un vif intérêt pour le sujet. Une offre d'emploi récente de l'entreprise recherche un chercheur « post-IAG » (Intelligence Artificielle Générale) dont les missions incluent l'étude de la conscience des machines.
Google s'ouvre davantage sur le thème de l'« IA consciente ». Photo : Reuters |
Cependant, cette nouvelle approche ne fait pas l'unanimité au sein de la communauté scientifique. Jared Kaplan, directeur scientifique d'Anthropic, affirme que l'IA excelle dans le mimétisme et pourrait très bien prétendre avoir une conscience sans en avoir réellement.
« Nous pourrions même récompenser l’IA pour avoir prétendu ne pas avoir d’émotions », a déclaré Kaplan au New York Times .
Gary Marcus, un éminent scientifique cognitif et critique fréquent du battage médiatique dans le secteur de l’IA, soutient que les discussions sur « l’IA consciente » relèvent davantage du marketing que de la science.
« Ce qu'une entreprise comme Anthropic fait réellement, c'est envoyer le message : « Regardez, notre modèle est tellement intelligent qu'il mérite d'avoir des droits » », a commenté Marcus à Business Insider .
Malgré le débat en cours, les chercheurs s’accordent à dire qu’à mesure que l’IA devient plus présente dans notre travail, nos vies et même nos émotions personnelles, la question « L’IA ressent-elle des émotions ? » deviendra de plus en plus importante.
« Ce problème deviendra de plus en plus important à mesure que nous interagirons avec les systèmes d’IA dans davantage de contextes », a déclaré Fish.
Source : https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html
Comment (0)