O Comitê de Supervisão do Facebook publicou uma nota solicitando mudanças na rede social. Especificamente, o grupo independente pede atualizações no texto sobre deepfakes produzidos em contextos sexuais.
“Imagens íntimas de deepfake afetam mulheres e meninas de forma desproporcional — minando seus direitos à privacidade e proteção contra danos físicos e mentais. Restrições a esse conteúdo são legítimas para proteger indivíduos da criação e disseminação de imagens sexuais feitas sem consentimento”, diz o texto do comitê.
O tema virou debate após dois incidentes que resultaram na divulgação de imagens manipuladas por inteligência artificial (IA) envolvendo mulheres dos Estados Unidos e da Índia. Além deles, outros casos tem surgido nessa e em outras plataformas envolvendo montagens de pessoas sem roupa ou em conteúdos adultos.
Na primeira denúncia, uma montagem feita por IA envolvendo figura pública indiana circulou no Facebook. Apesar de denúncias, o post ficou no ar por mais de 48 horas — a Meta só removeu as publicações depois de uma “bronca” do comitê, mas originalmente não viu problemas nas imagens.
Manipulações com IA estão cada vez mais frequentes nas redes como o Facebook. (Imagem: Getty Images)Fonte: GettyImages
No segundo caso, envolvendo uma usuária norte-americana, a imagem só foi removida automaticamente porque a montagem já constava em um banco de imagens de manipulações previamente identificadas.
O que deve mudar no Facebook
No geral, o grupo pede que a Meta mude a palavra “derrogatório” nas normas para “não consensual”. O texto deve ainda remover a palavra “photoshop” e trocar ela por termos mais generalizados envolvendo mídias manipuladas, sem necessariamente citar o software da Adobe.
Além disso, a plataforma precisa adicionar novos conteúdos para reforçar a proibição em conteúdos gerados por IA e especificar que a violação não precisa ser apenas de conteúdos “não comerciais ou produzidos em configurações privada“.
Facebook ainda não cumpriu as solicitações do comitê. (Imagem: Getty Images)Fonte: GettyImages
Segundo o comitê, a gravidade do assunto faz com que a remoção do conteúdo seja “a única forma efetiva de proteger as pessoas impactadas“. A atual ferramenta do Facebook sobre o assunto, que é marcar imagens produzidas usando IA, é tida como inapropriada e ineficaz, já que mantém as publicações no ar.
O Comitê existe desde 2021 e já criticiou a companhia em vários casos, inclusive por falta de transparência. Até o momento, a Meta (dona do Facebook) não se pronunciou oficialmente sobre o caso.