Un nuevo informe ha revelado cómo los investigadores de seguridad infantil están luchando para detener miles de perturbadoras imágenes de “sexo infantil” generadas por inteligencia artificial (IA) que se están creando y compartiendo en la web.
Según este reciente informe, el auge de la tecnología de inteligencia artificial ha provocado una peligrosa “explosión” de imágenes realistas que muestran la explotación sexual infantil, lo que genera preocupación entre los expertos en seguridad infantil.
El informe señala que se han encontrado miles de imágenes de sexo infantil generadas por IA en foros de la dark web.
Los usuarios también comparten instrucciones detalladas sobre cómo otros pedófilos pueden crear sus propias imágenes realistas de IA de niños que realizan actos sexuales, lo que comúnmente se conoce como pornografía infantil.
Desde el otoño pasado, la empresa encargada en el análisis de datos Thorn, ha visto un crecimiento mes tras mes en la prevalencia de imágenes de IA en la dark web.
¿Es una imagen real o falsa?
La explosión de tales imágenes tiene un potencial preocupante de socavar los esfuerzos para encontrar víctimas y combatir el abuso real, ya que las fuerzas del orden tendrán que hacer todo lo posible para investigar si una fotografía es real o falsa.
Según la publicación, las imágenes de sexo infantil generadas por IA podrían confundir el sistema de seguimiento central creado para bloquear dicho material de la web; puesto que está diseñado solo para capturar imágenes conocidas de abuso, en lugar de detectar las recién generadas.
Los funcionarios encargados de hacer cumplir la ley, que trabajan para identificar a los niños víctimas de abusos, ahora pueden verse obligados a dedicar tiempo a determinar si las imágenes son reales o generadas por IA.
Las herramientas de inteligencia artificial también pueden volver a victimizar a cualquier persona cuyas fotografías de abuso sexual infantil en el pasado se utilicen para entrenar modelos y generar imágenes falsas.
Niños que no existen
Las imágenes también han alimentado un debate sobre si violan las leyes federales de protección infantil, ya que las imágenes a menudo muestran a niños que en realidad no existen.
Los funcionarios del Departamento de Justicia de EE.UU. que combaten la explotación infantil dicen que tales imágenes siguen siendo ilegales, incluso si el niño representado es generado por IA.
Por el momento, solamente existe un caso detenido en Quebec (Canadá) sentenciado a tres años de prisión por usar IA para generar imágenes de pornografía infantil y ninguno en EE.UU.