Ao longo do último ano, ouvimos muito sobre o potencial da IA para destruir a humanidade. De especialistas renomados em IA a CEOs de grandes empresas, parece haver um fluxo constante de alertas de que a IA será nossa inimiga, não nossa amiga.
Líderes da indústria e grandes nomes da IA afirmam que o rápido desenvolvimento da tecnologia pode ter consequências catastróficas para o mundo . Mas, segundo muitos pioneiros da IA, esse cenário visa desviar a atenção dos problemas mais urgentes que precisam ser resolvidos hoje.
Existe apenas 5% de chance de a IA levar à extinção da humanidade. (Foto: Keymatrixsolutions)
Embora muitos pesquisadores de IA reconheçam o potencial de ameaças existenciais representadas pela IA, outros não acreditam que consequências tão drásticas sejam prováveis, como sugere uma nova e ampla pesquisa com pesquisadores de IA.
Na nova pesquisa, 2.778 pesquisadores de IA responderam a perguntas sobre as consequências sociais do desenvolvimento da IA, bem como possíveis cronogramas para o futuro da tecnologia. Os resultados mostraram que quase 58% dos entrevistados disseram considerar que a ameaça de extinção da humanidade ou outros resultados extremamente negativos da tecnologia de IA está em torno de 5%.
O estudo também descobriu que a IA tem 50% de chance de superar os humanos em todas as tarefas até 2047, e 50% de chance de automatizar todas as tarefas humanas até 2116. O trabalho foi publicado por pesquisadores e acadêmicos de universidades de todo o mundo, incluindo Oxford e Bonn, na Alemanha.
Alguns especialistas em IA, incluindo o cofundador do Google Brain, Andrew Ng, e o "padrinho" da indústria de IA, Yann LeCun, descartaram alguns dos cenários apocalípticos mais alarmantes relacionados à IA. LeCun chegou a acusar líderes tecnológicos como Sam Altman de terem segundas intenções ao alimentar o medo da IA.
Yann LeCun, cientista- chefe de IA da Meta e considerado um dos padrinhos da IA, acusou alguns dos fundadores mais proeminentes da área de "alarmismo" e "lobby corporativo" para servir a seus próprios interesses. Segundo ele, grande parte dessa retórica apocalíptica visa manter o controle da IA nas mãos de poucos.
Andrew Ng, professor da Universidade Stanford e cofundador do Google Brain, compartilha dessa visão. Ele declarou ao Australian Financial Review que algumas empresas estão explorando o medo em torno da IA para consolidar sua posição dominante no mercado.
HUYNH DUNG (Fonte: Businessinsider/Newscientist)
Fonte










Comentário (0)