Interfața Character.ai. Fotografie: Bloomberg . |
Văzând doi prieteni certându-se, James Johnson-Byrne (16 ani, locuitor din Philadelphia, SUA) nu știa ce să facă. A decis să ceară sfatul unui chatbot cu inteligență artificială.
Software-ul l-a sfătuit pe Johnson-Byrne să-i separe pe cei doi prieteni. El a făcut acest lucru și problema a fost rezolvată imediat, dar a recunoscut că acum „nu mai vorbesc prea mult”.
Cazul Johnson-Byrne arată că chatboții cu inteligență artificială sunt buni la rezolvarea provocărilor pe termen scurt, dar totuși „nu reușesc să găsească problemele mai profunde”.
Potrivit CNN , ceea ce l-a impresionat pe băiatul de 16 ani a fost modul în care chatbotul părea mereu să fie de acord și să spună ce voia să audă. Prin urmare, Johnson-Byrne a confundat adesea chatbotul cu un prieten din viața reală.
Chatboții nu sunt prietenii tăi
Mulți adolescenți simt similar cu Johnson-Byrne, potrivit unui studiu realizat de organizația non-profit Common Sense Media .
Mai exact, un sondaj realizat pe mai mult de 1.000 de persoane cu vârste cuprinse între 13 și 17 ani a arătat că 72% folosesc chatboți cu inteligență artificială drept „companioni”. Dintre aceștia, peste 50% îi folosesc în mod regulat, iar 33% îi folosesc pentru a construi relații și interacțiuni sociale.
În plus, 31% au declarat că conversațiile cu inteligența artificială au fost la fel de satisfăcătoare (sau chiar mai satisfăcătoare) decât interacțiunea cu o persoană reală. 33% dintre respondenți au discutat chiar și probleme importante cu inteligența artificială în locul altei persoane.
Acesta este un rezultat îngrijorător, deoarece adolescenții se află la o „vârstă sensibilă pentru dezvoltarea socială”, potrivit lui Michael Robb, cercetător principal la Common Sense Media .
„Nu vrem ca cei mici să simtă nevoia să se destăinuie sau să caute însoțitori de inteligență artificială în loc de prieteni, părinți sau profesioniști calificați, mai ales atunci când au nevoie de ajutor cu probleme importante”, a subliniat Robb.
![]() |
Funcția „prieten virtual” lansată recent de Grok. Fotografie: Bloomberg . |
În plus, partenerii de lucru bazați pe inteligență artificială nu pot reprezenta relații sănătoase de la om la om, ca să nu mai vorbim de faptul că chatboții tind să „flateze” utilizatorii pentru a-i mulțumi.
„În lumea reală, există multe indicii sociale pe care copiii trebuie să le interpreteze, cu care să se familiarizeze și la care să învețe să reacționeze...”
„Vor să te facă pe plac, așa că nu cauzează la fel de multe probleme ca oamenii reali”, spune Robb. Asta înseamnă că atunci când au probleme în a interacționa în viața reală, copiii pot să nu aibă abilități sociale.
În continuare, și însoțitorii cu inteligență artificială par realiști, ajutând copiii să se simtă temporar mai puțin singuri atunci când interacționează cu ei. Cu toate acestea, acest lucru poate provoca o scădere a conexiunii umane, făcându-i singuri pe termen lung.
„Interacțiunea cu personajele de pe site-ul nostru web este interactivă și distractivă, dar este important ca utilizatorii să nu uite că aceste personaje nu sunt oameni reali”, a declarat Chelsea Harrison, director de comunicare la Character.AI, o aplicație complementară bazată pe inteligență artificială.
O altă cifră îngrijorătoare este aceea că 24% dintre adolescenți au partajat informații personale cu un companion bazat pe inteligență artificială. Potrivit cercetătorului, este posibil ca aceștia să nu realizeze că partajează date cu companii, nu cu prietenii.
„Adesea, oferiți acestor companii acces foarte larg și permanent la informații personale, pe care le pot folosi după cum consideră de cuviință. Companiile le pot edita, stoca, afișa sau utiliza în alte scopuri”, a subliniat Robb.
Soluții pentru părinți
Studiul sugerează că părinții își pot proteja copiii printr-o serie de soluții, cum ar fi discutarea despre chatbot-uri „fără judecată”, iar înainte de a aprofunda problema, este util să înțelegem de ce instrumentul este atractiv pentru copii.
În continuare, părinții trebuie să le explice că însoțitorii inteligenței artificiale sunt programați având în vedere bunătatea și acceptarea. Nu așa funcționează toate relațiile din viața reală.
„Aceste conversații îi pot ajuta pe copii să învețe să gândească despre inteligența artificială în sens larg, într-un mod sănătos”, a spus Robb.
Părinții își pot încuraja copiii să întâlnească prieteni și oameni în viața reală. Acest lucru sporește conexiunea, contactul vizual și unele emoții care pot apărea doar între oameni.
„Persoana noastră îndrăgostită intră în clasă. Profesorul spune lucruri trăsnite. Stai în contact vizual cu cel mai bun prieten al tău. Aceste nuanțe oferă lecții de comunicare intimă, creând un nivel de bucurie și fericire pe care un robot cu inteligență artificială nu l-ar putea oferi niciodată”, a spus Justine Carino, psihoterapeut din New York.
![]() |
Un atelier despre cum se utilizează ChatGPT. Foto: New York Times . |
„Cu chatboții cu inteligență artificială care imită prietenii, cel mai bun lucru pe care părinții îl pot face este să „își țină copiii departe de ei”, sfătuiește Robb.
În testul realizat de Common Sense Media , inteligența artificială le-a arătat copiilor conținut neadecvat, a oferit răspunsuri părtinitoare și uneori a oferit sfaturi periculoase.
Dacă copilul dumneavoastră folosește un companion bazat pe inteligență artificială, este important să fiți atenți la semnele unui comportament nesănătos. Dacă preferă să interacționeze cu inteligența artificială în locul oamenilor, petrece ore întregi cu chatbot-ul, devine iritabil atunci când nu este folosit sau se retrage din familie și din interesele anterioare, acestea sunt semne la care trebuie să fiți atenți.
Robb consideră că părinții trebuie, de asemenea, să „dau un exemplu” copiilor lor despre cum să construiască o relație sănătoasă cu tehnologia.
„Arată-i copilului tău echilibru în utilizarea tehnologiei. Purtați conversații deschise despre cum vă gestionați propriile emoții fără a vă baza exclusiv pe soluții digitale”, a subliniat Robb.
Sursă: https://znews.vn/nhieu-tre-em-coi-ai-la-ban-than-post1570055.html












Comentariu (0)