ChatGPT multiplicó por 80 sus reportes de explotación infantil en 2025

OpenAI presentó 80 veces más denuncias al Centro Nacional para Menores Desaparecidos y Explotados durante los primeros seis meses de 2025 que en el mismo período del año anterior.

En el 2025 la inteligencia artificial (IA) se ha convertido en una herramienta importante tanto para combatir como para facilitar la explotación infantil. Un informe reciente de WIRED reveló que OpenAI multiplicó por 80 los reportes de explotación infantil vinculados a ChatGPT en los primeros seis meses de 2025, pasando de 947 reportes en 2024 a más de 75,000 en el mismo período del 2025. Este dato no solo refleja un aumento en la detección, sino también un crecimiento alarmante en la generación de material de abuso mediante herramientas de IA.

Generada con IA por José R. Leonett

La magnitud del problema.

1. Explotación infantil a nivel global.

  • 138 millones de niños y niñas en el mundo están sometidos a trabajo infantil, de los cuales 54 millones realizan trabajos peligrosos que ponen en riesgo su salud, seguridad y desarrollo.
  • 160 millones de menores están en redes de explotación laboral, y casi la mitad (79 millones) realizan trabajos duros y peligrosos.

2. Explotación sexual infantil y la IA.

  • Los reportes de material de abuso sexual infantil generado por IA aumentaron un 1,325% entre 2023 y 2024, según el Centro Nacional para Menores Desaparecidos y Explotados (NCMEC).
  • En 2025, al menos 38 estados de EE.UU. han criminalizado la producción, distribución y posesión de material de explotación sexual infantil generado por IA.
  • En España, la policía ha detectado un aumento en el uso de IA para crear imágenes hiperrealistas de abuso, lo que dificulta la identificación de víctimas reales.
Generada con IA por José R. Leonett

¿Por qué se da este fenómeno?

1. Facilidad para generar contenido sintético.

La IA permite crear imágenes y videos de menores en situaciones de explotación sin necesidad de víctimas reales, lo que dificulta su detección y persecuciónes. Esto ha llevado a:

  • La normalización de la explotación infantil en línea.
  • La saturación de los sistemas de denuncia, que deben diferenciar entre contenido real y sintético.

2. Falta de regulación y transparencia.

  • Muchas herramientas de detección son propiedad de empresas tecnológicas, y su funcionamiento no siempre es transparente, lo que dificulta la auditoría y colaboración internacional.
  • Los equipos que revisan este material sufren impacto psicológico grave, y la falta de recursos especializados agrava el problema.

3. Desafíos legales.

El material generado por IA no siempre representa a víctimas identificables, lo que complica su persecución legal y la protección de menores.

Generada con IA por José R. Leonett

Impacto social y ético.

1. Normalización y desensibilización.

  • La proliferación de imágenes sintéticas desensibiliza a la sociedad y dificulta la identificación de víctimas reales.
  • Contribuye a la revictimización de menores cuyas imágenes han sido manipuladas o utilizadas sin consentimiento.

2. Presión sobre los sistemas de justicia.

  • Los recursos de investigación se ven saturados al tener que diferenciar entre contenido real y generado por IA, lo que retrasa la protección de víctimas reales.
Generada con IA por José R. Leonett

¿Qué se está haciendo?

1. Compromisos corporativos.

Empresas como OpenAI, Meta, Google y Microsoft han adoptado principios para prevenir el uso de sus sistemas en la generación de material de abuso infantil. Esto incluye:

  • Mejorar los controles parentales en plataformas como ChatGPT.
  • Invertir en herramientas avanzadas para detectar y eliminar contenido generado por IA.

2. Avances legales.

  • En EE.UU. y España, se han aprobado leyes para criminalizar la producción y distribución de material de explotación sexual infantil generado por IA.
  • Se promueve la colaboración internacional entre gobiernos, empresas tecnológicas y organizaciones para proteger a los menores.

3. Tecnología de detección.

  • Empresas como Hive AI desarrollan software para diferenciar imágenes reales de las generadas por IA, optimizando los recursos de investigación.
Generada con IA por José R. Leonett

No es solo un problema, es una responsabilidad compartida.

El aumento de reportes de explotación infantil vinculados a la IA en 2025 es una señal de alarma. La tecnología puede ser una aliada en la lucha contra estos delitos, pero su mal uso está creando nuevos riesgos. Es urgente:

  • Regular el uso de la IA en la generación de contenido.
  • Invertir en herramientas de detección y formación de equipos especializados.
  • Fortalecer la colaboración global para proteger a los menores en el entorno digital.

La IA no es el problema, pero su uso irresponsable sí lo es. La respuesta debe ser tan innovadora como el desafío.

Investigación de José R. Leonett

Fuentes: