Nesse sentido, a empresa proprietária do ChatGPT e da Dall-E assumiu diversos compromissos em relação à política de IA. "A empresa está comprometida em trabalhar com o governo dos EUA e formuladores de políticas em todo o mundo para apoiar o desenvolvimento de requisitos de licenciamento para todos os modelos de IA de alto desempenho no futuro."
A ideia de um processo de licenciamento para desenvolvimento de IA, copromovido por líderes do setor como a OpenAI e o governo, está preparando o cenário para um potencial conflito entre startups e desenvolvedores de código aberto, que veem isso como uma tentativa de dificultar a entrada no espaço da IA.
Em uma audiência no Congresso dos EUA, o CEO da OpenAI, Sam Altman, certa vez levantou a ideia de estabelecer uma agência responsável por licenciar ou revogar produtos de IA caso eles violem as regras estabelecidas.
A divulgação da OpenAI ocorre no momento em que outras grandes empresas de IA, como Microsoft e Google, também estão considerando medidas semelhantes.
No entanto, a vice-presidente de assuntos globais da empresa, Anna Makanju, disse que o documento de política interna seria diferente da política que a Casa Branca deverá divulgar. A OpenAI afirmou que não "impulsiona", mas acredita que o licenciamento é uma forma "prática" para os governos regularem sistemas emergentes.
“É importante que os governos saibam se esses sistemas superpoderosos podem causar danos”, e “há muito poucas maneiras de as autoridades saberem sobre esses sistemas sem fazerem autodenúncias”.
Makanju disse que a OpenAI só oferece suporte ao licenciamento de modelos de IA mais poderosos que o GPT-4 e quer garantir que startups menores não tenham que arcar com o fardo regulatório.
Responsabilidade e transparência
A OpenAI também sinalizou em documentação interna que está disposta a ser mais transparente sobre os dados que utiliza para treinar geradores de imagens como o Dall-E. A empresa afirma estar comprometida com uma abordagem transparente e responsável aos dados de desenvolvimento de IA.
Analistas observaram que os compromissos descritos no memorando da OpenAI são altamente consistentes com algumas das propostas políticas feitas pela Microsoft em maio. A OpenAI observou que, apesar de receber um investimento de US$ 10 bilhões da Microsoft, continua sendo uma empresa independente.
Além disso, a empresa dona do ChatGPT também conduziu uma pesquisa de marca d'água para rastrear a autenticidade e os direitos autorais de imagens geradas por IA.
No memorando, a OpenAI parece reconhecer os riscos potenciais que os sistemas de IA representam para o mercado de trabalho e a desigualdade. A empresa afirmou no rascunho que conduzirá pesquisas e fará recomendações aos formuladores de políticas para proteger a economia de potenciais "disrupções".
A empresa também disse que está aberta a permitir que as pessoas acessem e testem seus sistemas em busca de vulnerabilidades em diversas áreas, incluindo conteúdo ofensivo, riscos de manipulação e desinformação, e apoia a criação de um centro colaborativo de compartilhamento de informações sobre segurança cibernética.
(De acordo com a Bloomberg)
[anúncio_2]
Fonte
Comentário (0)