IA já está a gerar abuso infantil

   Tempo de leitura: 3 minutos

Em 2025, a Internet Watch Foundation detetou 8.029 materiais de abuso gerados por inteligência artificial

Redação |

A União Europeia encontra-se em uma encruzilhada nas suas políticas de proteção à infância. As instituições avançam em marcos regulatórios para proteger os menores mas os infratores operam numa velocidade superior, utilizando a inteligência artificial para contornar normas de segurança.

A Internet Watch Foundation lançou o relatório “Danos sem limites: material de abuso sexual infantil com IA sob os olhos de nossos analistas”, um dossiê técnico que revela a gravidade do material de abuso sexual infantil gerado por inteligência artificial.

Segundo a organização, os informações coletadaos fornecem os dados suficientes para que a União Europeia implemente ações legislativas de emergência. A ofensiva contra o crime digital deve atuar em duas frentes: o bloqueio imediato da geração de conteúdos de abuso via inteligência artificial e a blindagem dos sistemas de deteção já existentes para a proteção de menores.

Em 2025, a Internet Watch Foundation detetou 8.029 materiais de abuso infantil realista gerados por inteligência artificial. O salto mais alarmante ocorreu nos vídeos: de 13 em 2024 para 3.443 em um ano. Quase dois terços desse conteúdo atingiram a categoria A, o nível mais extremo de violência e realismo.

Segundo o relatório, a Diretiva reformulada deve criminalizar integralmente todas as formas de material de abuso sexual infantil, e remover exceções para uso ou criação pessoal. Além disso, deve criminalizar ferramentas de inteligência artificial projetadas para criar materiais de abuso e alinhar as penalidades às de abusos cometidos presencialmente.

O documento propõe a implementação de avaliações de pré-comercialização, exigindo que sistemas de inteligência artificial sejam testados antes de chegarem ao mercado. O texto ressalta uma distinção política fundamental: a mera permissão para testes não substitui a obrigatoriedade legal de executá-los.

O relatório também enfatiza o conceito de safety by design, defendendo que a proteção infantil deve ser integrada desde a fase de desenvolvimento tecnológico. Sob essa ótica, a criação de materiais de abuso sexual infantil via inteligência artificial deve ser classificada e tratada como um risco sistémico nos termos da Lei de Inteligência Artificial da União.

Para evitar que a IA aprenda com conteúdos criminosos, o relatório propõe o uso sistemático da lista de impressões digitais da Internet Watch Foundation e de URLs monitoradas. A estratégia visa garantir que imagens de abuso infantil já identificadas sejam banidas dos bancos de dados de treinamento, utilizando os mais de 3 milhões de verificações da fundação como barreira de segurança.

A última recomendação do documento exige o banimento de plataformas de nudificação para usuários na União Europeia. O argumento é categórico: não existe utilidade pública ou benefício social para tais ferramentas, que operam exclusivamente para humilhar, assediar e explorar vítimas, servindo como porta de entrada para ciclos mais graves de abuso.

Share