Récemment, une vidéo montrant deux chatbots d'IA conversant dans un langage appelé « Gibberlink » est devenue virale sur les réseaux sociaux. La vidéo a cumulé plus de 13,7 millions de vues, suscitant à la fois fascination et perplexité chez de nombreux internautes. Ce phénomène a alimenté des débats sur la possibilité pour l'IA de développer son propre langage.
Source : Gibberlink |
Dans la vidéo, un agent IA appelle un autre assistant IA pour évaluer les lieux de réception de mariage dans les hôtels. Au cours de la conversation, les deux agents IA se reconnaissent mutuellement comme assistants virtuels et passent rapidement du langage humain au mode Gibberlink.
Gibberlink est un langage machine qui permet aux systèmes d'IA de communiquer plus efficacement. Il a été développé par les ingénieurs logiciels Boris Starkov et Anton Pidkuiko. Ce mode de communication utilise une série de sons combinés, rappelant les bips de R2-D2 dans les films Star Wars.
Gibberlink a franchi une nouvelle étape dans la communication entre IA, la rendant plus rapide et moins gourmande en ressources que la voix humaine.
D'après l'équipe de développement, ce protocole offre une précision quasi absolue, permettant à l'IA d'échanger des informations clairement, même dans des environnements bruyants. L'efficacité de la communication est considérablement améliorée : le temps de transmission des informations est réduit de 80 % et les coûts de calcul de 90 % par rapport aux méthodes conventionnelles.
Ensuite, cette technologie permet également de corriger certaines erreurs dues à une mauvaise compréhension du langage naturel.
Grâce à son propre langage, l'IA peut utiliser Gibberlink pour communiquer des informations de manière cohérente et précise, au lieu de devoir déchiffrer des contextes complexes ou ambigus dans le langage humain. Cette amélioration de la fiabilité de la communication permet aux systèmes d'IA d'accomplir leurs tâches plus efficacement.
D'autre part, Gibberlink peut décharger les exigences de traitement complexes et accélérer la transmission des données, permettant ainsi aux systèmes d'IA de fonctionner plus facilement dans les applications nécessitant des réponses rapides telles que l'automatisation, l'analyse des mégadonnées et le contrôle des appareils intelligents.
Les humains ne peuvent pas comprendre l'IA
Le problème réside toutefois dans l'impossibilité pour les humains de comprendre et de contrôler ce mode de communication. Cela soulève des inquiétudes quant au contrôle et à la sécurité, engendrant des risques pour la sécurité des données, ainsi que des risques potentiels de fuite d'informations ou d'exploitation par des personnes malveillantes.
De plus, l'établissement d'un langage propre constitue une étape importante qui rapproche l'IA de l'autonomie. En effet, les agents d'IA devraient être capables de prendre des décisions ou d'effectuer des tâches de manière autonome, en fonction de l'expérience de l'utilisateur, de son environnement et des données saisies. Gartner, société américaine de recherche et de conseil en technologies, prévoit que d'ici 2028, plus de 15 % des tâches quotidiennes seront effectuées par des agents d'IA.
Cela ouvre de nouvelles perspectives technologiques, mais soulève également des défis en matière d'éthique, de contrôle et de responsabilité dans le développement de l'IA.
Par conséquent, la définition de limites appropriées et l'application responsable de cette technologie seront cruciales pour l'avenir de l'IA.










Comment (0)