Recent, un videoclip cu doi chatboți cu inteligență artificială care discutau între ei într-un limbaj numit „Gibberlink” a devenit viral pe rețelele de socializare. Videoclipul a atras peste 13,7 milioane de vizualizări, lăsând mulți spectatori fascinați și confuzi. Acest lucru a stârnit opinii diferite despre dezvoltarea propriului limbaj de către inteligența artificială.
Sursă: Gibberlink |
În videoclip, un agent IA apelează la un alt asistent IA pentru a supraveghea locațiile de nuntă ale hotelului. În timpul conversației, cei doi agenți IA se recunosc reciproc ca asistenți virtuali și trec rapid de la limbajul uman la modul Gibberlink.
Gibberlink este un limbaj mașină care permite sistemelor de inteligență artificială să comunice mai eficient. A fost dezvoltat de inginerii software Boris Starkov și Anton Pidkuiko. Modul constă dintr-o serie de sunete combinate, care amintesc de bip-urile lui R2-D2 din filmele Star Wars.
Gibberlink a adus un nou pas înainte în comunicarea între inteligențe artificiale, făcând-o mai rapidă și mai puțin consumatoare de resurse decât vocea umană.
Potrivit echipei de dezvoltare, acest protocol are o precizie aproape absolută, ajutând inteligența artificială să facă schimb de informații în mod clar chiar și în medii zgomotoase. Eficiența comunicării este îmbunătățită semnificativ atunci când timpul de transmitere a informațiilor este redus cu 80%, iar costurile de calcul sunt reduse cu 90% în comparație cu metodele convenționale.
În continuare, această tehnologie depășește și unele erori datorate neînțelegerilor în limbajul natural.
Atunci când IA are propriul limbaj, în loc să fie nevoită să descifreze contextul complex sau ambiguu din limbajul uman, ea poate utiliza Gibberlink pentru a comunica informații în mod consecvent și precis. Prin îmbunătățirea fiabilității comunicării, sistemele de IA pot îndeplini sarcinile mai eficient.
Pe de altă parte, Gibberlink poate elimina cerințele complexe de procesare și poate accelera transmiterea datelor, permițând sistemelor de inteligență artificială să funcționeze mai ușor în aplicații care necesită răspunsuri rapide, cum ar fi automatizarea, analiza big data și controlul dispozitivelor inteligente.
Oamenii nu pot înțelege IA
Problema însă constă în următoarea: oamenii nu pot înțelege și monitoriza această metodă de comunicare. Acest lucru duce la îngrijorări legate de control și securitate, cauzând riscuri de securitate a datelor, riscuri potențiale de scurgere de informații sau exploatare de către infractori.
În plus, stabilirea propriului limbaj este un pas important care apropie IA de autonomie. De fapt, agenții IA sunt așteptați să ia decizii sau să îndeplinească sarcini pe cont propriu, pe baza experienței, mediului și datelor de intrare ale utilizatorului. Gartner, o companie de cercetare și consultanță tehnologică (SUA), prevede că până în 2028, peste 15% din munca zilnică va fi decisă de agenții IA.
Acest lucru deschide noi posibilități în tehnologie, dar ridică și provocări legate de etică, control și responsabilitate în dezvoltarea IA.
Prin urmare, stabilirea unor limite adecvate și aplicarea responsabilă a tehnologiei vor fi cruciale pentru viitorul inteligenței artificiale.
Comentariu (0)