Funcionários de OpenAI e DeepMind lançam carta criticando empresas de IA

Um grupo de especialistas em inteligência artificial (IA) que inclui atuais e ex-funcionários de empresas da área publicou uma carta aberta sobre os perigos dessa tecnologia. O texto tem um tom bastante crítico às companhias que atualmente desenvolvem ferramentas para o setor.

Chamada de “O direito de alertar sobre inteligência artificial avançada”, a carta é assinada por 13 pessoas. Destas, a grande maioria é ex-funcionária da OpenAI, a dona do ChatGPT.

Outros dois participantes (um atualmente empregado lá e outro que já saiu) são do DeepMind, o laboratório de IA do Google, sendo uma dessas pessoas trabalhou também para a Anthropic, do chatbot Claude.

O que diz a carta aberta sobre IA

No geral, o texto é uma crítica ao modo com que empresas de IA lidam atualmente com essa tecnologia em várias frentes, incluindo transparência. Após uma contextualização e apontamentos gerais, o grupo pede que as companhias da área concordem em seguir quatro princípios de operação.

Preocupação do grupo envolve as donas de sistemas e serviços.Preocupação do grupo envolve as donas de sistemas e serviços.Fonte:  GettyImages 

Os autores dizem que reconhecem os potenciais e benefícios da IA, assim como os riscos. Na verdade, a maior preocupação deles está nessa falta de abertura por parte das companhias, que só compartilham informações com os próprios funcionários — governos, entidades independentes e a própria sociedade, por exemplo.

“As empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz e não acreditamos que estruturas personalizadas de governança corporativa sejam suficientes para mudar esta situação”, diz o texto.

Como regular a atividade das empresas de IA?

Os princípios defendidos pelo grupo incluem que as empresas não entrem em acordos que proíbam críticas a elas por funcionários, tenham um processo confiável e anônimo para alertas e relatos sobre riscos e apoiem uma cultura de críticas abertas.

Além disso, as responsáveis por sistemas de IA devem permitir aos funcionários relatar riscos sobre as tecnologias ao público, inclusive o compartilhamento de informações relacionadas a riscos, mesmo que confidenciais, depois que todas as medidas anteriores falharem.

Recentemente, a própria OpenAI criou um comitê de Segurança e Proteção para ‘fiscalizar’ operações com IA por conta própria. Foi ela mesma, entretanto, que usou uma voz parecida com a de Scarlett Johansson no seu chatbot mesmo após receber a negativa da atriz.

Até agora, as empresas DeepMind, OpenAI e Anthropic não se manifestaram sobre a carta aberta. Você pode ler o texto completo por este link (em inglês).

Tags

Compartilhe

iPhone 17 Pro deve contar com ilha de câmeras parecida com Google Pixel
iPhone 17 Pro deve contar com ilha de câmeras parecida com Google Pixel
SVA na Pratica mais Valor mais Receita para o seu Provedor - CDNTV
SEGURANÇA OU DISPONIBILIDADE ? O QUE TORNA UMA INTERNET SEGURA ?
SWITCH RAISECOM na ARSITEC para PROVEDORES - CAST DOS LOUCOS
NUVEM X COLOCATION - Qual vale mais a pena com a Asap Telecom
ERROS DE SEGURANÇA QUE PODEM CUSTAR CARO NO SEU PROVEDOR EM 2025 com @Ayubio
LANÇAMENTO VIVENSIS NETWORK
A Internet ta cara ?
Monte seu Provedor em 2025 fácil fácil
PREPARE O SEU PROVEDOR PARA 2025 - CDNTV