Interface do Character.ai. Foto: Bloomberg . |
Ao presenciar uma discussão entre dois amigos, James Johnson-Byrne (16 anos, residente na Filadélfia, EUA) não sabia o que fazer. Decidiu então pedir conselhos a um chatbot de inteligência artificial.
O software aconselhou Johnson-Byrne a separar os dois amigos. Ele assim o fez e o problema foi resolvido imediatamente, mas admitiu que agora eles "não conversam muito".
O caso de Johnson-Byrne demonstra que os chatbots de IA são bons em resolver desafios de curto prazo, mas ainda "falham em encontrar os problemas mais profundos".
Segundo a CNN , o que impressionou o jovem de 16 anos foi a maneira como o chatbot sempre parecia concordar e dizer o que ele queria ouvir. Por isso, Johnson-Byrne frequentemente confundia o chatbot com um amigo de verdade.
Os chatbots não são seus amigos.
Segundo pesquisa da organização sem fins lucrativos Common Sense Media , muitos adolescentes compartilham da mesma opinião de Johnson-Byrne.
Especificamente, uma pesquisa com mais de 1.000 pessoas entre 13 e 17 anos mostrou que 72% usam chatbots de IA como "companheiros". Destes, mais de 50% os usam regularmente e 33% os utilizam para construir relacionamentos e interações sociais.
Além disso, 31% afirmaram que as conversas com IA foram tão satisfatórias (ou até mais) do que interagir com uma pessoa real. 33% dos entrevistados chegaram a discutir assuntos importantes com IA em vez de com outra pessoa.
Este é um resultado preocupante porque os adolescentes estão em uma “idade sensível para o desenvolvimento social”, de acordo com Michael Robb, pesquisador principal da Common Sense Media .
“Não queremos que as crianças sintam que precisam confiar ou procurar companheiros de IA em vez de amigos, pais ou profissionais qualificados, especialmente quando precisam de ajuda com questões importantes”, enfatizou Robb.
![]() |
O novo recurso "namorada virtual" do Grok. Foto: Bloomberg . |
Além disso, os assistentes virtuais não conseguem representar relacionamentos humanos saudáveis, sem mencionar que os chatbots tendem a "bajular" para agradar os usuários.
“No mundo real, existem muitos sinais sociais que as crianças precisam interpretar, com os quais precisam se familiarizar e aos quais precisam aprender a responder...
“Eles querem te agradar, então não causam tantos problemas quanto as pessoas reais”, diz Robb. Isso significa que, quando têm dificuldade em interagir na vida real, as crianças podem não ter as habilidades sociais necessárias.
Além disso, os companheiros de IA também parecem realistas, ajudando as crianças a se sentirem temporariamente menos sozinhas ao interagirem com eles. No entanto, isso pode causar uma diminuição na conexão humana, tornando-as solitárias a longo prazo.
“Interagir com os personagens em nosso site é interativo e divertido, mas é importante que os usuários se lembrem de que esses personagens não são pessoas reais”, disse Chelsea Harrison, Diretora de Comunicações da Character.AI, um aplicativo complementar de IA.
Outro dado preocupante é que 24% dos adolescentes compartilharam informações pessoais com um assistente virtual de inteligência artificial. Segundo o pesquisador, eles podem não perceber que estão compartilhando dados com empresas, e não com amigos.
“Muitas vezes, você está dando a essas empresas acesso amplo e permanente a informações pessoais, que elas podem usar como bem entenderem. As empresas podem editar, armazenar, exibir ou usar essas informações em outros contextos”, enfatizou Robb.
Soluções para pais
Os pais podem proteger seus filhos por meio de diversas soluções, como discutir chatbots "sem julgamentos", sugere o estudo, e é útil entender por que a ferramenta atrai as crianças antes de se aprofundar no assunto.
Em seguida, os pais precisam explicar que os companheiros de IA são programados com gentileza e aceitação em mente. Nem todos os relacionamentos da vida real funcionam dessa forma.
“Essas conversas podem ajudar as crianças a aprender a pensar sobre IA de forma ampla e saudável”, disse Robb.
Os pais também podem incentivar seus filhos a conhecer amigos e pessoas na vida real. Isso aumenta a conexão, o contato visual e algumas emoções que só podem acontecer entre pessoas.
“A pessoa por quem você tem uma queda entra na sala de aula. O professor diz coisas estranhas. Você troca olhares com seu melhor amigo. Essas nuances oferecem lições de comunicação íntima, criando um nível de alegria e felicidade que um robô de IA jamais conseguiria proporcionar”, disse Justine Carino, psicoterapeuta em Nova York.
![]() |
Um workshop sobre como usar o ChatGPT. Foto: New York Times . |
Com chatbots de IA imitando amigos, a melhor coisa que os pais podem fazer é "manter seus filhos longe deles", aconselha Robb.
No teste realizado pela Common Sense Media , a IA mostrou conteúdo inadequado para crianças, forneceu respostas tendenciosas e, por vezes, deu conselhos perigosos.
Se seu filho usa um assistente virtual de inteligência artificial, é importante ficar atento a sinais de comportamento inadequado. Se ele prefere interagir com a IA em vez de humanos, passa horas com o chatbot, fica irritado quando não o utiliza ou se afasta da família e de seus interesses anteriores, esses são sinais de alerta.
Robb acredita que os pais também precisam "dar o exemplo" aos filhos sobre como construir uma relação saudável com a tecnologia.
“Mostre ao seu filho equilíbrio no uso da tecnologia. Tenha conversas abertas sobre como você lida com suas próprias emoções sem depender exclusivamente de soluções digitais”, enfatizou Robb.
Fonte: https://znews.vn/nhieu-tre-em-coi-ai-la-ban-than-post1570055.html












Comentário (0)