Los pedófilos están utilizando IA para generar imágenes realistas de abuso sexual infantil
Los pedófilos están utilizando programas de inteligencia artificial para generar imágenes realistas de abuso sexual infantil, lo que genera preocupaciones entre los investigadores de seguridad infantil de que socavarán los esfuerzos para encontrar víctimas y combatir el abuso en el mundo real.
Le puede interesar: Los supermercados británicos rechazan el cargo de «especulación»
Según un informe del Washington Post , el auge de la tecnología de inteligencia artificial ha provocado una «carrera armamentista depredadora» en los foros de pedófilos en la web oscura.
Los creadores de las imágenes abusivas utilizan un software llamado Stable Diffusion, cuyo objetivo era generar imágenes para su uso en arte o diseño gráfico.
Pero los depredadores han estado usando el software para crear sus propias imágenes realistas de niños realizando actos sexuales, y han estado compartiendo instrucciones detalladas sobre cómo otros pedófilos pueden crear las suyas propias.
«Las imágenes de los niños, incluido el contenido de las víctimas conocidas, se están reutilizando para este resultado realmente malvado», dijo Rebecca Portnoff, directora de ciencia de datos del grupo de seguridad infantil sin fines de lucro Thorn.
«La identificación de víctimas ya es un problema de aguja en un pajar, donde la policía está tratando de encontrar a un niño en peligro», dijo al Post. “La facilidad de uso de estas herramientas es un cambio significativo, así como el realismo. Simplemente hace que todo sea más un desafío.
En el Reino Unido, una ‘pseudoimagen’ generada por una computadora que muestra abuso sexual infantil se trata como una imagen real y es ilegal poseerla, publicarla o transferirla.
El líder del Consejo Nacional de Jefes de Policía (NPCC) sobre protección infantil, Ian Critchley, dijo que sería un error argumentar eso porque no se representan niños reales en imágenes tan «sintéticas».
La aparición de tales imágenes también tiene el potencial de socavar los esfuerzos para encontrar víctimas y combatir el abuso real, lo que obliga a las fuerzas del orden público a hacer todo lo posible para investigar si una fotografía es real o falsa.
Le puede interesar: Uno de cada siete británicos enfrentó hambre en 2022, dice una organización benéfica del banco de alimentos
Según la publicación, las imágenes de sexo infantil generadas por IA podrían «confundir» el sistema de seguimiento central creado para bloquear dicho material de la web porque está diseñado solo para capturar imágenes conocidas de abuso, en lugar de detectar las recién generadas.