Niedawno w mediach społecznościowych pojawił się film przedstawiający dwa chatboty AI rozmawiające ze sobą w języku o nazwie „Gibberlink”. Film obejrzało ponad 13,7 miliona widzów, pozostawiając ich zafascynowanych i zdezorientowanych. Wywołało to rozbieżne opinie na temat rozwoju własnego języka przez sztuczną inteligencję.
Źródło: Gibberlink |
Na filmie agent AI kontaktuje się z innym asystentem AI, aby przeprowadzić ankietę dotyczącą sal weselnych w hotelach. Podczas rozmowy agenci AI rozpoznają się jako wirtualnych asystentów i szybko przełączają się z języka ludzkiego na tryb Gibberlink.
Gibberlink to język maszynowy, który umożliwia systemom sztucznej inteligencji skuteczniejszą komunikację. Został opracowany przez inżynierów oprogramowania Borisa Starkowa i Antona Pidkuiko. Tryb ten składa się z serii połączonych dźwięków, przypominających sygnały dźwiękowe R2-D2 z filmów „Gwiezdne Wojny”.
Gibberlink poczynił nowy krok naprzód w komunikacji między sztuczną inteligencją, czyniąc ją szybszą i mniej zasobochłonną niż ludzki głos.
Według zespołu programistów, protokół ten charakteryzuje się niemal absolutną dokładnością, pomagając sztucznej inteligencji w wyraźnej wymianie informacji nawet w środowiskach o dużym natężeniu hałasu. Efektywność komunikacji ulega znacznej poprawie, gdy czas transmisji informacji zostaje skrócony o 80%, a koszty obliczeń zredukowane o 90% w porównaniu z metodami konwencjonalnymi.
Ponadto technologia ta pozwala także na wyeliminowanie niektórych błędów wynikających z niezrozumienia języka naturalnego.
Gdy sztuczna inteligencja posługuje się własnym językiem, zamiast rozszyfrowywać złożony lub niejednoznaczny kontekst w języku ludzkim, może wykorzystać Gibberlink do spójnej i precyzyjnej komunikacji. Dzięki poprawie niezawodności komunikacji systemy sztucznej inteligencji mogą wykonywać zadania efektywniej.
Z drugiej strony Gibberlink może odciążyć użytkowników z konieczności przetwarzania złożonych danych i przyspieszyć transmisję danych, dzięki czemu systemy AI mogą działać płynniej w aplikacjach wymagających szybkich reakcji, takich jak automatyzacja, analiza dużych zbiorów danych i sterowanie inteligentnymi urządzeniami.
Ludzie nie potrafią zrozumieć sztucznej inteligencji
Problem tkwi jednak w tym, że ludzie nie potrafią zrozumieć i monitorować tej metody komunikacji. To rodzi obawy dotyczące kontroli i bezpieczeństwa, co z kolei stwarza zagrożenia dla bezpieczeństwa danych, potencjalne ryzyko wycieku informacji lub ich wykorzystania przez cyberprzestępców.
Co więcej, stworzenie własnego języka to ważny krok, który przybliża sztuczną inteligencję do autonomii. W rzeczywistości oczekuje się, że agenci AI będą samodzielnie podejmować decyzje lub wykonywać zadania w oparciu o doświadczenie użytkownika, środowisko i dane wejściowe. Gartner, amerykańska firma zajmująca się badaniami i doradztwem technologicznym, przewiduje, że do 2028 roku ponad 15% codziennych zadań będzie wykonywanych przez agentów AI.
Otwiera to nowe możliwości technologiczne, ale stawia również wyzwania związane z etyką, kontrolą i odpowiedzialnością w rozwoju sztucznej inteligencji.
Dlatego ustalenie odpowiednich ograniczeń i odpowiedzialne stosowanie technologii będzie miało kluczowe znaczenie dla przyszłości sztucznej inteligencji.
Komentarz (0)