Texto segue para a Câmara, se não houve recurso. Projeto cria ‘dever de cuidado’ para as redes sociais e provedores, ou seja, diz que empresas podem ser responsabilizadas por danos. A Comissão de Direitos Digitais do Senado aprovou nesta quarta-feira (27) um projeto que estabelece e amplia mecanismos de segurança para crianças e adolescentes na internet.
Aprovada por 9 votos a 0, a proposta deverá seguir diretamente para análise da Câmara dos Deputados, caso não haja recurso para votação no plenário principal do Senado.
O texto determina, entre outros pontos, que plataformas digitais adotem o chamado dever de cuidado para assegurar a proteção de menores de idade. Este princípio prevê que sejam adotadas medidas para evitar danos aos usuários e possibilita a responsabilização de empresas que se omitem.
O projeto também estabelece que serviços de tecnologia deverão derrubar — independentemente de ordem judicial — conteúdos identificados como de exploração e abuso sexual infantil.
Outras medidas previstas no texto obrigam o uso de verificação de idade para barrar o acesso de menores a conteúdos pornográficos; proíbem a venda das chamadas “caixas de recompensa” em jogos eletrônicos; e restringem o alcance da publicidade a crianças.
O regramento proposto pelo projeto seria aplicado a todo produto ou serviço de tecnologia “direcionado ou de provável acesso” por crianças e adolescentes disponíveis no Brasil — independentemente da sua origem.
O descumprimento das regras previstas no projeto poderão levar a penalidades, que começam em multas e podem culminar na proibição de funcionamento do serviço no país.
Fantástico revela o mercado de vendas de fotos de crianças pela internet
Dever de cuidado
Relatada pelo senador Flávio Arns (PSB-PR) e de autoria do senador Alessandro Vieira (MDB-SE), a proposta estabelece que as empresas responsáveis pelas plataformas digitais terão de adotar o dever de cuidado para proteger crianças e adolescentes nesses ambientes.
O dever de cuidado é um princípio jurídico que exige a adoção de medidas para evitar danos a terceiros e que possibilita eventuais responsabilizações por omissões dos responsáveis.
Segundo a proposta, as empresas de tecnologia com produtos voltados ou acessados por menores terão de adotar mecanismos para prevenir ou mitigar a exposição de conteúdos:
de exploração e abuso sexual de crianças e adolescentes;
de violência física, bullying virtual e assédio a crianças e adolescentes;
que incentivem transtornos de saúde mental e automutilação;
que promovem jogos de azar, produtos de tabaco, bebidas alcoólicas e drogas; e
publicitários enganosos para menores.
Também caberá às empresas realizar avaliações e gerenciamentos de risco para adequar os serviços aos menores, e ferramentas para impedir que crianças e adolescentes acessem conteúdos desaconselhados para a sua idade.
Denúncias de abuso sexual infantil na internet aumentaram quase 80% em 2023