A Apple não lida corretamente com imagens de abuso ou violência sexual contra menores de idade em suas plataformas. Quem diz isso é a National Society for the Prevention of Cruelty to Children (NSPCC), um órgão de proteção às crianças no Reino Unido.
De acordo com um relatório anual do instituto, a companhia tem falhado de forma constante em monitorar, apagar e reportar a presença desse tipo de material em serviços como iCloud, iMessage e FaceTime.
A crítica é baseada na baixa quantidade de denúncias repassadas pela Apple ao NSPCC, o que é considerado obrigatório no Reino Unido em caso de identificação de abuso infantil. Durante todo o ano de 2023, a empresa acionou a instituição apenas 267 vezes — contra 1,47 milhão de denúncias da Google e 30,7 milhões dos serviços combinados da Meta (Facebook, WhatsApp, Threads e Instagram).
“Há uma discrepância preocupante no número de imagens criminosas de abuso infantil no Reino Unido hospedados em serviços da Apple e a quantidade de avisos quase negligente que eles fazem às autoridades”, diz Richard Collard, gerente de proteção contra abuso infantil da NSPCC ao site The Guardian.
Decisão de não reportar é política da Apple
Em resposta à denúncia, a Maçã não emitiu um comunicado oficial. No lugar, ela reforçou um posicionamento que adota já há algum tempo de não escanear imagens e outros conteúdos hospedados em seus serviços de comunicação ou armazenamento.
Em 2021, ela anunciou novos recursos de segurança com foco na proteção de crianças que incluiria um sistema de detecção de material de abuso infantil no iCloud. Para fazer isso, porém, ela teria que realizar um escaneamento frequente na base de arquivos armazenados pelos usuários para tentar identificar possíveis imagens criminosas.
O iCloud é uma plataforma com alta circulação de materiais potencialmente criminosos.Fonte: GettyImages
Apesar de garantir a privacidade no sistema, a Apple foi duramente criticada por várias entidades e até por Edward Snowden, o ex-operador da CIA que denunciou a vigilância do governo dos EUA anos antes.
Os problemas incluíam uma possível exposição da privacidade dos usuários, além de uma possível pressão para uso da ferramenta em outros casos, como requerimentos judiciais ou pedidos de governos. No fim do ano, antes que a tecnologia fosse ao ar, ela foi cancelada pela Apple — que desde então se recusa a fazer o monitoramento gráfico na plataforma.
Apesar das críticas e da denúncia no relatório, a companhia não pode ser punida pelo NSPCC. A entidade, porém, reforça que a companhia é “um buraco negro” perigoso nessa área, em especial com a crescente criação de imagens criminosas a partir de IA.