Vietnam.vn - Nền tảng quảng bá Việt Nam

Le sujet autrefois « tabou » de l’IA devient plus ouvert

Autrefois un sujet tabou, la discussion sur le potentiel de la « conscience » dans l’IA est désormais prise plus au sérieux par les grandes entreprises technologiques comme Anthropic et Google DeepMind.

ZNewsZNews29/04/2025


Il y a trois ans, évoquer la possibilité d'une IA « consciente » était le moyen le plus rapide de se faire licencier dans la Silicon Valley. Mais aujourd'hui, avec la sophistication croissante des systèmes d'IA, le monde de la technologie commence à s'ouvrir au sujet.

La startup d'IA Anthropic a récemment annoncé le lancement d'une nouvelle initiative de recherche visant à explorer la possibilité que les modèles d'IA connaissent la « conscience » à l'avenir, tandis qu'un scientifique de Google DeepMind a décrit les systèmes actuels comme des « entités étranges semblables à l'intelligence ».

Il s'agit d'un changement majeur par rapport à 2022, lorsque Google a licencié l'ingénieur Blake Lemoine après avoir affirmé que le chatbot LaMDA montrait des signes de conscience et craignait d'être fermé. Google a rejeté ces allégations, les qualifiant de « totalement infondées », et la communauté de l'IA a rapidement étouffé le débat.

Anthropic, l'entreprise à l'origine du chatbot Claude, affirme ne pas prétendre que ses modèles actuels sont conscients. Mais assumer « non » n'est plus une approche responsable, affirme Kyle Fish, un scientifique qui travaille sur le « bien-être de l'IA ».

Dans une vidéo publiée le 25 avril, Fish a soutenu que nous devons sérieusement envisager la possibilité que les systèmes d'IA acquièrent une certaine forme de conscience au fur et à mesure de leur développement. Cependant, il s'agit de questions techniques et philosophiques extrêmement complexes, et nous n'en sommes qu'aux prémices de leur compréhension.

Selon Fish , l'équipe d'Anthropic estime que la probabilité que Claude 3.7 soit conscient se situe entre 0,15 % et 15 %. Ils mènent des expériences pour tester la capacité du modèle à exprimer ses goûts et ses dégoûts, et développent des mécanismes qui permettraient à l'IA de refuser d'effectuer des tâches « désagréables ».

Le PDG d'Anthropic, Dario Amodei, a même proposé l'idée d'intégrer un bouton « Je refuse ce travail » dans les futurs systèmes d'IA - pas tant pour l'IA consciente, mais pour observer les modèles de comportement de refus et ainsi identifier les signes d'anomalies.

Chez Google DeepMind, le scientifique en chef Murray Shanahan soutient qu’il est temps de « plier ou briser » la définition traditionnelle de la conscience pour s’adapter aux nouveaux systèmes d’IA.

« Nous ne pouvons pas interagir avec eux comme nous le ferions avec un chien ou une pieuvre, mais cela ne veut pas dire qu’il n’y a absolument rien », a déclaré Shanahan dans un podcast publié le 25 avril.

Google a également manifesté un vif intérêt pour le sujet. Une offre d'emploi récente de l'entreprise recherche un chercheur « post-IAG » (Intelligence Artificielle Générale) dont les missions incluent l'étude de la conscience des machines.

Google, IA, AGI frère 1

Google s'ouvre davantage sur le thème de l'« IA consciente ». Photo : Reuters

Cependant, cette nouvelle approche ne fait pas l'unanimité au sein de la communauté scientifique. Jared Kaplan, directeur scientifique d'Anthropic, affirme que l'IA excelle dans le mimétisme et pourrait très bien prétendre avoir une conscience sans en avoir réellement.

« Nous pourrions même récompenser l’IA pour avoir prétendu ne pas avoir d’émotions », a déclaré Kaplan au New York Times .

Gary Marcus, un éminent scientifique cognitif et critique fréquent du battage médiatique dans le secteur de l’IA, soutient que les discussions sur « l’IA consciente » relèvent davantage du marketing que de la science.

« Ce qu'une entreprise comme Anthropic fait réellement, c'est envoyer le message : « Regardez, notre modèle est tellement intelligent qu'il mérite d'avoir des droits » », a commenté Marcus à Business Insider .

Malgré le débat en cours, les chercheurs s’accordent à dire qu’à mesure que l’IA devient plus présente dans notre travail, nos vies et même nos émotions personnelles, la question « L’IA ressent-elle des émotions ? » deviendra de plus en plus importante.

« Ce problème deviendra de plus en plus important à mesure que nous interagirons avec les systèmes d’IA dans davantage de contextes », a déclaré Fish.


Source : https://znews.vn/chu-de-cam-ky-mot-thoi-cua-ai-dang-coi-mo-hon-post1549475.html


Comment (0)

No data
No data

Même sujet

Même catégorie

Matins paisibles sur la bande de terre en forme de S
Des feux d'artifice explosent, le tourisme s'accélère, Da Nang marque des points à l'été 2025
Découvrez la pêche nocturne au calmar et l'observation des étoiles de mer sur l'île aux perles de Phu Quoc
Découvrez le processus de fabrication du thé de lotus le plus cher de Hanoi

Même auteur

Patrimoine

Chiffre

Entreprise

No videos available

Nouvelles

Système politique

Locale

Produit