Um grupo de especialistas em inteligência artificial (IA) que inclui atuais e ex-funcionários de empresas da área publicou uma carta aberta sobre os perigos dessa tecnologia. O texto tem um tom bastante crítico às companhias que atualmente desenvolvem ferramentas para o setor.
Chamada de “O direito de alertar sobre inteligência artificial avançada”, a carta é assinada por 13 pessoas. Destas, a grande maioria é ex-funcionária da OpenAI, a dona do ChatGPT.
Outros dois participantes (um atualmente empregado lá e outro que já saiu) são do DeepMind, o laboratório de IA do Google, sendo uma dessas pessoas trabalhou também para a Anthropic, do chatbot Claude.
O que diz a carta aberta sobre IA
No geral, o texto é uma crítica ao modo com que empresas de IA lidam atualmente com essa tecnologia em várias frentes, incluindo transparência. Após uma contextualização e apontamentos gerais, o grupo pede que as companhias da área concordem em seguir quatro princípios de operação.
Preocupação do grupo envolve as donas de sistemas e serviços.Fonte: GettyImages
Os autores dizem que reconhecem os potenciais e benefícios da IA, assim como os riscos. Na verdade, a maior preocupação deles está nessa falta de abertura por parte das companhias, que só compartilham informações com os próprios funcionários — governos, entidades independentes e a própria sociedade, por exemplo.
“As empresas de IA têm fortes incentivos financeiros para evitar uma supervisão eficaz e não acreditamos que estruturas personalizadas de governança corporativa sejam suficientes para mudar esta situação”, diz o texto.
Como regular a atividade das empresas de IA?
Os princípios defendidos pelo grupo incluem que as empresas não entrem em acordos que proíbam críticas a elas por funcionários, tenham um processo confiável e anônimo para alertas e relatos sobre riscos e apoiem uma cultura de críticas abertas.
Além disso, as responsáveis por sistemas de IA devem permitir aos funcionários relatar riscos sobre as tecnologias ao público, inclusive o compartilhamento de informações relacionadas a riscos, mesmo que confidenciais, depois que todas as medidas anteriores falharem.
Recentemente, a própria OpenAI criou um comitê de Segurança e Proteção para ‘fiscalizar’ operações com IA por conta própria. Foi ela mesma, entretanto, que usou uma voz parecida com a de Scarlett Johansson no seu chatbot mesmo após receber a negativa da atriz.
Até agora, as empresas DeepMind, OpenAI e Anthropic não se manifestaram sobre a carta aberta. Você pode ler o texto completo por este link (em inglês).