Ilustração de um apelo para tratar a IA como uma arma biológica. (Fonte: gizmodo.com) |
No artigo Tratar a IA como uma arma biológica, não como uma arma nuclear, de Emilia Javorsky, cientista -médica e diretora do Future of Life Institute (EUA), a autora argumenta que, apesar de o mundo ter recentemente comparado repetidamente a IA a bombas nucleares, existe uma abordagem mais adequada, que é regular esse tipo de tecnologia como uma arma biológica ou biotecnologia.
Segundo o autor, a IA é talvez a tecnologia mais poderosa da história da humanidade, desenvolvida atualmente. Os efeitos nocivos da IA, incluindo discriminação, ameaças à democracia e concentração de influência, já foram bem documentados.
No entanto, as principais empresas de IA estão correndo para construir sistemas de IA cada vez mais poderosos, aumentando os riscos a uma taxa sem precedentes na história da humanidade.
À medida que os líderes lutam para conter e controlar o crescimento da IA e seus riscos associados, eles precisam considerar as mesmas regras e padrões que a humanidade usou para criá-la no passado.
Ajuste e inovação podem coexistir, especialmente quando vidas humanas estão em jogo.
Um alerta da tecnologia nuclear
Embora a energia nuclear seja mais de 600 vezes mais segura que o petróleo em termos de mortalidade e seja extremamente eficiente, poucos países a utilizam devido às consequências que têm visto da abordagem de longa data à energia nuclear.
O mundo conheceu a tecnologia nuclear na forma da bomba atômica e da bomba de hidrogênio. Com essas armas, pela primeira vez na história, os humanos desenvolveram uma tecnologia capaz de acabar com a civilização humana, produto de uma corrida armamentista que priorizou velocidade e inovação em detrimento da segurança e do controle.
Falhas subsequentes na segurança técnica e na gestão de riscos, notoriamente responsáveis pelos desastres nucleares de Chernobyl e Fukushima, destruíram qualquer chance de as pessoas aceitarem os aspectos positivos da energia nuclear.
Apesar da avaliação geral favorável do risco da energia nuclear e de décadas de cientistas trabalhando para convencer o mundo de sua viabilidade, o próprio conceito de "nuclear" continua... contaminado.
Quando uma tecnologia causa danos em seus estágios iniciais, a conscientização social e a reação exagerada podem limitar permanentemente seus benefícios potenciais. Devido aos erros iniciais com a energia nuclear, a humanidade não conseguiu aproveitar ao máximo sua fonte de energia limpa e segura, e a neutralidade de carbono e a estabilidade energética continuam sendo um sonho distante.
A abordagem correta para a biotecnologia
No entanto, em algumas áreas, as pessoas acertaram. A biotecnologia é um desses campos, incentivado a se desenvolver rapidamente no contexto de muitos pacientes que sofrem e morrem todos os dias de doenças sem cura.
O ethos desta pesquisa não é "agir rápido e quebrar coisas", mas inovar o mais rápido e com a maior segurança possível. Os humanos limitam o ritmo da inovação neste campo por meio de um sistema de regulamentações, éticas e normas que protegem o bem-estar da sociedade e dos indivíduos, e protegem a indústria da paralisação por reações adversas que podem levar ao desastre.
Quando as armas biológicas foram proibidas na Convenção sobre Armas Biológicas, durante a Guerra Fria, as superpotências opostas concordaram que a criação de tais armas não era do interesse de ninguém. Os líderes entenderam que essas tecnologias difíceis de controlar, mas altamente acessíveis, não deveriam ser vistas como um mecanismo para vencer a corrida armamentista, mas como uma ameaça à própria humanidade.
Emilia Javorsky é uma das cientistas que recentemente assinou uma carta aberta defendendo uma moratória de seis meses no desenvolvimento da IA. Ela também assinou uma declaração alertando que a IA representa um "risco de extinção" para a humanidade. |
A pausa na corrida pelas armas biológicas permite que os humanos as desenvolvam em um ritmo responsável, com cientistas e reguladores aplicando padrões rigorosos a qualquer nova inovação que possa potencialmente prejudicar os humanos.
Esses ajustes não ocorreram sem custos, mas também estabeleceram uma bioeconomia , com muitas aplicações em áreas que vão da energia limpa à agricultura.
Durante a pandemia de Covid-19, biólogos aplicaram a tecnologia de mRNA para produzir vacinas eficazes em uma velocidade sem precedentes na história da humanidade.
Uma pesquisa recente com pesquisadores de IA constatou que 36% dos entrevistados acreditavam que a IA poderia causar um desastre de nível nuclear. No entanto, as respostas e regulamentações governamentais têm sido lentas, o que não condiz com o ritmo de adoção da tecnologia, com o aplicativo ChatGPT ultrapassando 100 milhões de usuários.
Os riscos crescentes da IA levaram 1.800 CEOs e 1.500 professores nos EUA a assinar recentemente uma carta pedindo uma pausa de seis meses no desenvolvimento da IA e um processo urgente de regulamentação e mitigação de riscos. Essa pausa daria à comunidade global tempo para limitar os danos causados pela IA e prevenir o risco de um desastre irreversível para a nossa sociedade.
Ao avaliar os riscos e potenciais danos da IA, devemos também considerar como evitar perder de vista o potencial positivo desta tecnologia. Se desenvolvermos a IA de forma responsável agora, seremos capazes de colher benefícios incríveis dela. Por exemplo, os benefícios da aplicação da IA na descoberta e desenvolvimento de medicamentos, na melhoria da qualidade e do custo dos cuidados de saúde e na ampliação do acesso a médicos e tratamentos médicos.
O DeepMind, do Google, demonstrou que a IA tem o potencial de resolver problemas fundamentais da biologia que os humanos há muito evitam. De acordo com o estudo, a IA pode acelerar a realização de todos os Objetivos de Desenvolvimento Sustentável das Nações Unidas, levando a humanidade a um futuro de melhor saúde, equidade, prosperidade e paz.
É hora de a comunidade global se unir, como fez há 50 anos na Convenção sobre Armas Biológicas, para garantir que o desenvolvimento da IA seja seguro e responsável. Se não agirmos logo, corremos o risco de destruir o futuro brilhante da IA e da nossa sociedade atual.
[anúncio_2]
Fonte
Comentário (0)