De acordo com o anúncio no blog oficial da OpenAI, o Comitê de Segurança se tornará um grupo de supervisão independente sob o conselho. O professor Zico Kolter, da Universidade Carnegie Mellon, presidirá o Comitê, juntamente com outros membros, como o CEO do Quora, Adam D'Angelo, o general aposentado do Exército dos EUA, Paul Nakasone, e a ex-vice-presidente executiva da Sony, Nicole Seligman. Todos esses membros são atualmente membros do conselho da OpenAI.
Após a renúncia de Altman, o comitê concluiu a revisão de segurança do mais recente modelo de IA da empresa, o o1. O grupo continuará recebendo instruções da equipe de segurança da OpenAI e reserva-se o direito de adiar o lançamento caso as preocupações com a segurança não sejam abordadas.
De acordo com a OpenAI, o Comitê manterá um papel importante na supervisão técnica dos modelos atuais e futuros, além do monitoramento pós-lançamento. A empresa está comprometida em desenvolver processos de segurança integrados com critérios de avaliação claros para garantir que todos os seus modelos de IA sejam lançados com segurança.
A decisão de Altman de deixar o comitê ocorre após um grupo de cinco senadores americanos enviar uma carta solicitando que a OpenAI esclarecesse suas políticas de segurança. Quase metade da equipe da OpenAI, que se concentrava no estudo dos riscos de longo prazo da IA, deixou a empresa nos últimos anos. Ex-pesquisadores da OpenAI criticaram Altman por não defender uma regulamentação forte da IA, favorecendo, em vez disso, políticas que promovam os objetivos comerciais da empresa.
Crédito da imagem: Justin Sullivan / Getty Images
Além disso, a OpenAI aumentou significativamente seus gastos com lobby no Congresso dos EUA. A empresa orçou US$ 800.000 para os primeiros seis meses de 2024, em comparação com US$ 260.000 para todo o ano de 2023. Altman também se juntou ao Conselho de Segurança e Proteção de Inteligência Artificial do Departamento de Segurança Interna dos EUA, onde contribuiu para fazer recomendações relacionadas à IA em toda a infraestrutura crítica do país.
Embora Altman tenha deixado o Comitê de Segurança e Privacidade, parece haver poucos indícios de que o comitê tomará decisões que possam prejudicar seriamente o caminho comercial da OpenAI. Em maio, a OpenAI afirmou que buscaria abordar "críticas válidas" ao seu trabalho por meio do comitê, embora "críticas válidas" sejam em grande parte subjetivas.
Em um editorial no The Economist em maio, duas ex-membros do conselho da OpenAI, Helen Toner e Tasha McCauley, expressaram preocupações sobre a capacidade da empresa de se autogovernar, argumentando que a OpenAI atualmente não consegue se responsabilizar sob a pressão do lucro.
Os lucros estão se tornando um motor cada vez mais importante para a OpenAI. A empresa está em processo de captação de US$ 6,5 bilhões em uma nova rodada de financiamento que a avaliaria em mais de US$ 150 bilhões. Para atrair investidores, a OpenAI pode considerar abandonar sua estrutura híbrida sem fins lucrativos, projetada para limitar os retornos aos investidores a fim de garantir o objetivo de desenvolver IA para o bem comum da humanidade.
Hung Nguyen (de acordo com o TechCrunch)
[anúncio_2]
Fonte: https://www.congluan.vn/sam-altman-roi-uy-ban-an-toan-cua-openai-nhuong-quyen-cho-nhom-doc-lap-post312681.html
Comentário (0)