Vietnam.vn - Nền tảng quảng bá Việt Nam

O modelo de 'superinteligência' por trás do escândalo da OpenAI

VTC NewsVTC News01/12/2023

[anúncio_1]

De acordo com fontes do Tech.co , enquanto a controvérsia sobre o CEO Sam Altman ser demitido e depois retornar à OpenAI acontecia, um dos rumores surgiu sobre uma carta enviada pelos pesquisadores da empresa ao conselho de administração, expressando preocupações sobre o modelo de superinteligência de IA que estava sendo desenvolvido e que poderia potencialmente representar uma ameaça à humanidade.

(Ilustração)

(Ilustração)

Projeto Q*

O modelo, conhecido internamente como Projeto Q* (pronuncia-se Q-star), representa um grande avanço na busca da OpenAI por inteligência artificial geral (AGI) — um ramo altamente autônomo da superinteligência capaz de aprendizado cumulativo e de superar humanos na maioria das tarefas.

Q* pode marcar um grande salto à frente na inteligência artificial ao melhorar radicalmente as capacidades de raciocínio da IA ​​e aproximar a OpenAI de um grande avanço no desenvolvimento da AGI, de acordo com pessoas familiarizadas com o assunto.

Ao contrário dos modelos atuais de IA, que se concentram na capacidade de gerar respostas com base em informações aprendidas anteriormente, a AGI é um sistema autônomo que pode aplicar “razão” às decisões, dando-lhe capacidades de resolução de problemas de nível humano.

Embora a AGI ainda não esteja totalmente desenvolvida, muitos especialistas acreditam que a tecnologia também terá a capacidade de aprender cumulativamente, outra característica que dá aos humanos a capacidade de melhorar suas habilidades.

Algumas fontes afirmam que o projeto Q* da OpenAI conseguiu demonstrar as propriedades acima na resolução de problemas. Além disso, graças ao enorme poder computacional do modelo, o Q* superou alunos do ensino fundamental, demonstrando habilidades de raciocínio e cognitivas significativas em comparação com as funções da tecnologia de IA atual.

Não está claro há quanto tempo o Q* está em desenvolvimento e quais podem ser suas aplicações, mas a OpenAI informou os funcionários e membros do conselho sobre o projeto antes que o escândalo de pessoal estourasse.

Preocupações éticas

Embora o CEO da OpenAI, Sam Altman, esteja confiante de que a tecnologia AGI impulsionará a inovação, alguns pesquisadores foram rápidos em apontar os perigos potenciais do projeto.

Em uma carta ao conselho, os pesquisadores alertaram sobre os potenciais perigos desse poderoso algoritmo para a humanidade. As preocupações éticas específicas sobre IA descritas na carta não foram divulgadas, mas os alertas foram suficientes para justificar a decisão do conselho de demitir Altman.

Enquanto isso, o motivo inicial alegado para a demissão de Altman foi que o CEO "se comunicava mal". Ele logo conseguiu um novo cargo na Microsoft. Essa ação levou 700 dos 770 funcionários da OpenAI a ameaçarem fazer o mesmo se o CEO não fosse reintegrado.

Com a empresa em perigo de colapso, o conselho da OpenAI foi forçado a reintegrar Altman ao cargo mais alto, o que também levou a uma grande reformulação da equipe executiva da empresa e destacou profundas divisões dentro de sua liderança.

Agora, com Altman de volta ao cargo e o Projeto Q* potencialmente recebendo sinal verde novamente, isso levanta novas questões.

Quão realista é o Projeto Q*?

Embora os dias tumultuados na OpenAI tenham trazido o conceito de AGI à tona, esta não é a primeira vez que Altman menciona a tecnologia.

O empreendedor do Vale do Silício se viu em maus lençóis em setembro após comparar a IA a "um ser humano comum que você contrataria como colega de trabalho". Ele deu continuidade aos comentários que fez no ano passado sobre como a IA poderia "fazer tudo o que você faria com um colega de trabalho remoto", incluindo aprender a ser um bom médico e programador.

Embora comparar a IAG à inteligência de um "ser humano médio" não seja nenhuma novidade, o uso da frase por Altman foi considerado "abominável" pelos especialistas em ética da IA ​​e pelo professor da Universidade de Cambridge, Henry Shevlin, à medida que aumentam as preocupações em torno do impacto da IA ​​na segurança do emprego.

Possíveis avanços na IAG também estão alertando outros pesquisadores — que a tecnologia está sendo desenvolvida mais rápido do que os humanos conseguem compreender completamente seu impacto.

A OpenAI acredita que os resultados positivos da IAGI fazem com que valha a pena perseguir o arriscado "campo minado". Mas, à medida que a empresa avança nessa direção, muitos temem que Altman esteja priorizando o sucesso comercial em detrimento dos interesses dos usuários e da sociedade.

Phuong Anh (Fonte: Tech.co, The Guardian)


[anúncio_2]
Fonte

Comentário (0)

No data
No data

No mesmo tópico

Na mesma categoria

Jovens vão ao Noroeste para fazer check-in durante a mais bela temporada de arroz do ano
Na época de "caça" ao junco em Binh Lieu
No meio da floresta de mangue de Can Gio
Pescadores de Quang Ngai embolsam milhões de dongs todos os dias após ganharem na loteria com camarão

Do mesmo autor

Herança

Figura

Negócios

Com lang Vong - o sabor do outono em Hanói

Eventos atuais

Sistema político

Local

Produto