Récemment, une vidéo montrant deux chatbots IA conversant dans un langage appelé « Gibberlink » est devenue virale sur les réseaux sociaux. La vidéo a été vue plus de 13,7 millions de fois, laissant de nombreux spectateurs à la fois fascinés et perplexes. Cela a suscité des opinions divergentes sur la possibilité que l'IA développe son propre langage.
Source : Gibberlink |
Dans la vidéo, un agent IA appelle un autre assistant IA pour inspecter les lieux de réception des mariages dans les hôtels. Au cours de la conversation, les deux agents IA se reconnaissent comme assistants virtuels et passent rapidement du langage humain au mode Gibberlink.
Gibberlink est un langage machine qui permet aux systèmes d'IA de communiquer plus efficacement entre eux. Il a été développé par les ingénieurs logiciels Boris Starkov et Anton Pidkuiko. Ce mode comprend une série de sons combinés, rappelant les bips du robot R2-D2 dans le film Star Wars.
Gibberlink a franchi une nouvelle étape dans la communication entre IA, la rendant plus rapide et moins gourmande en ressources que la voix humaine.
Selon l'équipe de développement, ce protocole offre une précision quasi parfaite, permettant à l'IA d'échanger des informations clairement, même dans des environnements bruyants. L'efficacité des communications est considérablement améliorée, le temps de transmission des informations étant réduit de 80 % et les coûts de calcul de 90 % par rapport aux méthodes conventionnelles.
Ensuite, certaines erreurs dues à une mauvaise compréhension du langage naturel sont également surmontées par cette technologie.
Lorsque l'IA possède son propre langage, au lieu de devoir déchiffrer un contexte complexe ou ambigu en langage humain, elle peut utiliser Gibberlink pour communiquer des informations de manière cohérente et précise. En améliorant la fiabilité des communications, les systèmes d'IA peuvent exécuter leurs tâches plus efficacement.
D'autre part, Gibberlink peut décharger les exigences de traitement complexes et accélérer la transmission des données, permettant aux systèmes d'IA de fonctionner plus facilement dans les applications qui nécessitent des réponses rapides telles que l'automatisation, l'analyse de données volumineuses et le contrôle des appareils intelligents.
Les humains ne peuvent pas comprendre l’IA
Cependant, le problème réside dans le fait que les humains ne peuvent ni comprendre ni surveiller ce mode de communication. Cela suscite des inquiétudes quant au contrôle et à la sécurité, entraînant des risques pour la sécurité des données, ainsi que des risques potentiels de fuite d'informations ou d'exploitation par des personnes malveillantes.
Par ailleurs, l'élaboration d'un langage propre constitue une étape importante vers l'autonomie de l'IA. En effet, les agents IA sont censés prendre des décisions ou effectuer des tâches de manière autonome, en fonction de l'expérience utilisateur, de son environnement et des données saisies. Gartner, société américaine de recherche et de conseil en technologies, prévoit que d'ici 2028, plus de 15 % du travail quotidien sera effectué par des agents IA.
Cela ouvre de nouvelles possibilités technologiques, mais soulève également des défis en matière d’éthique, de contrôle et de responsabilité dans le développement de l’IA.
Par conséquent, fixer des limites appropriées et appliquer la technologie de manière responsable sera le facteur décisif dans l’avenir de l’IA.
Comment (0)