Interfejs Character.ai. Zdjęcie: Bloomberg . |
Będąc świadkiem kłótni dwójki przyjaciół, James Johnson-Byrne (16 lat, mieszkający w Filadelfii w USA) nie wiedział, co zrobić. Postanowił zwrócić się o radę do chatbota opartego na sztucznej inteligencji.
Oprogramowanie zasugerowało Johnsonowi-Byrne'owi rozdzielenie dwójki przyjaciół. Postąpił zgodnie z tą radą i problem został natychmiast rozwiązany, ale przyznał, że „już niewiele ze sobą rozmawiają”.
Przypadek Johnson-Byrne pokazuje, że chatboty oparte na sztucznej inteligencji świetnie radzą sobie z rozwiązywaniem krótkoterminowych problemów, ale wciąż „nie potrafią znaleźć głębszego problemu”.
Według CNN , 16-latek był pod wrażeniem tego, jak chatbot zawsze zdawał się zgadzać i mówić to, co chciał usłyszeć. Dlatego Johnson-Byrne czasami myliła chatbota z prawdziwym przyjacielem.
Chatboty nie są twoimi najlepszymi przyjaciółmi.
Według badań organizacji non-profit Common Sense Media wielu nastolatków podziela odczucia Johnson-Byrne.
Badanie przeprowadzone na ponad 1000 osób w wieku 13–17 lat wykazało, że 72% z nich korzysta z chatbotów opartych na sztucznej inteligencji w formie „towarzyszy”. Ponad 50% z nich korzysta z nich regularnie, a 33% wykorzystuje je do budowania relacji i interakcji społecznych.
Co więcej, 31% respondentów stwierdziło, że rozmowy ze sztuczną inteligencją przyniosły im taką samą (lub nawet większą) satysfakcję, jak interakcja z prawdziwą osobą. 33% respondentów omawiało ważne kwestie ze sztuczną inteligencją, a nie z innymi ludźmi.
Jest to niepokojące odkrycie, ponieważ – jak twierdzi Michael Robb, główny badacz w Common Sense Media – nastolatki znajdują się w „wieku wrażliwym na rozwój społeczny”.
„Nie chcemy, aby dzieci czuły potrzebę zwierzania się sztucznej inteligencji lub szukania towarzystwa u niej zamiast u przyjaciół, rodziców lub wykwalifikowanych specjalistów, zwłaszcza gdy potrzebują pomocy w ważnych sprawach” – podkreślił Robb.
![]() |
Nowa funkcja Groka „wirtualnej dziewczyny”. Zdjęcie: Bloomberg . |
Co więcej, towarzysze AI nie są w stanie reprezentować zdrowych relacji międzyludzkich, nie wspominając już o tym, że chatboty mają tendencję do „pochlebstw”, aby zadowolić użytkowników.
„W realnym świecie istnieje wiele sygnałów społecznych, które dzieci muszą interpretować, poznawać i uczyć się na nie reagować...”
„Chcą sprawić ci przyjemność, więc nie będą sprawiać tyle kłopotu, co ludzie w prawdziwym życiu” – powiedział Robb. Oznacza to, że w obliczu trudności w interakcjach w realnym życiu, dzieciom mogą brakować umiejętności społecznych.
Co więcej, towarzysze ze sztuczną inteligencją wydają się realistyczni, tymczasowo łagodząc poczucie osamotnienia u dzieci poprzez interakcję. Może to jednak prowadzić do osłabienia więzi międzyludzkich, co w dłuższej perspektywie może prowadzić do poczucia osamotnienia.
„Interakcja z postaciami na naszej stronie internetowej jest interaktywna i zabawna, ale użytkownicy muszą pamiętać, że te postacie nie są prawdziwymi ludźmi” – powiedziała Chelsea Harrison, dyrektor ds. komunikacji w Character.AI, aplikacji towarzyszącej AI.
Kolejną niepokojącą statystyką jest fakt, że 24% nastolatków udostępniło swoje dane osobowe swoim partnerom opartym na sztucznej inteligencji. Według badaczy, mogą oni nie zdawać sobie sprawy, że udostępniają dane firmom, a nie znajomym.
„Często udziela się tym firmom szerokiego, stałego dostępu do danych osobowych, pozwalając im wykorzystywać je w dowolny sposób. Firmy te mogą je edytować, przechowywać, wyświetlać lub włączać do innych rzeczy” – podkreślił Robb.
Rozwiązania dla rodziców
Według badania rodzice mogą chronić swoje dzieci na kilka sposobów, na przykład rozmawiając o chatbotach „bez oceniania”. Pomaga to zrozumieć, dlaczego narzędzie to przyciąga dzieci, zanim zagłębią się w temat.
Następnie rodzice muszą wyjaśnić, że sztuczna inteligencja (AI) została zaprogramowana z życzliwą i akceptującą osobowością. Nie wszystkie relacje w prawdziwym życiu tak działają.
„Dzięki tym rozmowom dzieci nauczą się myśleć o sztucznej inteligencji w szerszym i zdrowym kontekście” – powiedział Robb.
Rodzice mogą również zachęcać swoje dzieci do spotykania się z przyjaciółmi i ludźmi w prawdziwym życiu. Lepsza więź, kontakt wzrokowy i pewne emocje mogą zaistnieć tylko między ludźmi.
„Nasza sympatia wchodzi do klasy. Nauczyciel wygaduje szalone rzeczy. Nawiązujesz kontakt wzrokowy ze swoją najlepszą przyjaciółką. Te niuanse uczą intymnej komunikacji, dając mnóstwo radości i szczęścia, jakich roboty AI nigdy nie byłyby w stanie zapewnić” – mówi Justine Carino, psychoterapeutka z Nowego Jorku.
![]() |
Warsztaty dotyczące korzystania z ChatGPT. Zdjęcie: New York Times . |
Robb radzi, aby rodzice, mając na uwadze fakt, że chatboty ze sztuczną inteligencją naśladują znajomych, „nie pozwalali swoim dzieciom z nich korzystać”.
W testach Common Sense Media sztuczna inteligencja pokazywała dzieciom nieodpowiednie treści, reagowała stronniczo, a czasami oferowała niebezpieczne rady.
Jeśli Twoje dzieci korzystają z pomocy sztucznej inteligencji (AI), ważne jest, aby zwracać uwagę na niepokojące sygnały. Jeśli dzieci wolą interakcję ze sztuczną inteligencją od ludzi, spędzają godziny z chatbotami, stają się drażliwe, gdy z nich nie korzystają, lub wycofują się z życia rodzinnego i poprzednich zainteresowań, to są to oznaki, na które warto zwrócić uwagę.
Robb twierdzi, że to sami rodzice muszą „dawać przykład” swoim dzieciom, jak budować zdrową relację z technologią.
„Pokaż swoim dzieciom, jak ważna jest równowaga w korzystaniu z technologii. Rozmawiajcie otwarcie o tym, jak radzicie sobie z własnymi emocjami, nie polegając wyłącznie na rozwiązaniach cyfrowych” – podkreślił Robb.
Źródło: https://znews.vn/nhieu-tre-em-coi-ai-la-ban-than-post1570055.html








Komentarz (0)