Pelo menos 25 prisões foram feitas durante uma operação mundial contra imagens de abuso infantil geradas pela Inteligência Artificial (IA), disse a organização policial da União Européia.
Os suspeitos faziam parte de um grupo criminal cujos membros se envolveram na distribuição de imagens totalmente geradas pela IA de menores, segundo a agência.
A operação é uma das primeiras envolvendo esse material de abuso sexual infantil (CSAM), diz a Europol. A falta de legislação nacional contra esses crimes tornou “excepcionalmente desafiador para os investigadores”, acrescentou.
As prisões foram feitas simultaneamente na quarta -feira, 26 de fevereiro, durante a Operação Cumberland, lideradas pela polícia dinamarquesa, disse um comunicado à imprensa.
As autoridades de pelo menos 18 outros países estiveram envolvidas e a operação ainda continua, com mais prisões esperadas nas próximas semanas, disse a Europol.
Além das prisões, até agora 272 suspeitos foram identificados, 33 pesquisas domésticas foram realizadas e 173 dispositivos eletrônicos foram apreendidos, de acordo com a agência.
Ele também disse que o principal suspeito era um cidadão dinamarquês que foi preso em novembro de 2024.
O comunicado dizia que “administrava uma plataforma on-line onde distribuiu o material gerado pela IA que produziu”.
Depois de fazer um “pagamento on -line simbólico”, os usuários de todo o mundo conseguiram uma senha que lhes permitisse “acessar a plataforma e assistir às crianças sendo abusadas”.
A agência disse que a exploração sexual infantil on-line é uma das principais prioridades das organizações policiais da União Europeia, que estavam lidando com “um volume crescente de conteúdo ilegal”.
A Europol acrescentou que, mesmo nos casos em que o conteúdo era totalmente artificial e não havia vítima real retratada, como na Operação Cumberland, “o CSAM gerado pela AI ainda contribui para a objetificação e sexualização das crianças”.
A diretora executiva da Europol, Catherine de Bolle, disse: “Essas imagens geradas artificialmente são tão facilmente criadas que podem ser produzidas por indivíduos com intenção criminal, mesmo sem conhecimento técnico substancial”.
Ela alertou que a aplicação da lei precisaria desenvolver “novos métodos e ferramentas de investigação” para enfrentar os desafios emergentes.
A Internet Watch Foundation (IWF) adverte que mais abuso sexual Imagens de IA das crianças estão sendo produzidas e se tornando mais prevalentes na web aberta.
Em pesquisa no ano passado, a instituição de caridade constatou que, durante um período de um mês, foram descobertas 3.512 imagens de abuso sexual e exploração infantil da IA em um site sombrio. Comparado com um mês no ano anterior, o número das imagens de categoria mais graves (categoria A) haviam aumentado em 10%.
Especialistas dizem que o material de abuso sexual infantil da IA geralmente pode parecer incrivelmente realista, dificultando dizer o real do falso.