Desde hace una semana, redes sociales como X (antes Twitter) e Instagram están inundadas de retratos familiares, mascotas y memes transformados al estilo del Studio Ghibli (es un estudio japonés de animación, considerado por la crítica especializada y muchos cinéfilos como uno de los mejores estudios de animación del mundo en la actualidad.) gracias a herramientas de IA como ChatGPT. Lo que parece un juego inofensivo —convertir una foto de un gato en un personaje de Mi Vecino Totoro o darle un aire anime a un selfie familiar— es, en realidad, una puerta trasera para que sistemas de inteligencia artificial capturen, analicen y almacenen datos biométricos sensibles, incluidos los de menores de edad.
Ejemplo viral: Janu Lingeswaran, un empresario alemán, subió una foto de su gato Mali a ChatGPT y la transformó en un personaje de Ghibli. El resultado fue tan encantador que planea imprimirlo y colgarlo en su casa. Lo que no sabe es que, al subir esa imagen, podría estar alimentando bases de datos como LAION-5B, un repositorio con 5.85 mil millones de pares de imágenes y textos usados para entrenar IA generativas como Stable Diffusion.

Cómo una selfie estilo Ghibli se convierte en combustible para la IA
- El proceso técnico:
- Al subir una foto a herramientas como ChatGPT o Dream by Wombo, los sistemas no solo aplican filtros. Analizan rasgos faciales, proporciones corporales y hasta patrones de fondo, creando un hash (identificador único) vinculado a tu imagen original.
- Aunque la foto se estilice, la IA retiene información biométrica. Por ejemplo, la distancia entre los ojos o la forma de la mandíbula, que pueden usarse para entrenar sistemas de reconocimiento facial.
- El engranaje oculto:
- LAION-5B, el conjunto de datos detrás de muchas IA, incluye imágenes de blogs familiares, YouTube y redes sociales, incluso de niños, sin consentimiento. Un informe de Human Rights Watch reveló que fotos de menores brasileños —algunas de hace 30 años— fueron usadas para entrenar modelos de IA.
- Clearview AI, empleado por agencias policiales, ha admitido usar 3 mil millones de imágenes de redes para su software de reconocimiento facial. Una selfie familiar subida hoy podría terminar en sus servidores mañana.

Los riesgos biométricos: “No puedes cambiar tu cara como una contraseña”
Los datos biométricos son únicos e inalterables. Una vez expuestos, el daño es irreversible:
- Deepfakes y suplantación: En 2023, Deutsche Telekom lanzó una campaña con un deepfake de una niña de 9 años convertida en adulta para alertar sobre los peligros del sharenting (compartir fotos de hijos). El video mostraba cómo imágenes inocentes pueden usarse para crear contenido falso o explotar menores.
- Sesgos y discriminación: Sistemas como los usados por la policía de Londres tienen tasas de error del 87% al identificar personas negras o mujeres. Si tu selfie estilo Ghibli es parte de este entrenamiento sesgado, podrías ser vinculado falsamente a un delito.
Caso real: En 2024, la administración Trump publicó en X una imagen estilo Ghibli de una mujer dominicana arrestada, generada con IA. La obra fue denunciada como “explotación” por la artista Karla Ortiz, quien demandó a OpenAI por usar trabajos protegidos sin permiso.
Menores de edad: Las víctimas invisibles
- 1.500 fotos antes de los 5 años: Según Deutsche Telekom, esta es la cantidad promedio de imágenes que un niño tiene en línea, publicadas por sus padres. Muchas acaban en datasets como LAION-5B.
- Deepfakes sexuales: En escuelas de EE.UU., estudiantes usan IA para crear nudes falsos de compañeras. Herramientas como Stable Diffusion, entrenadas con fotos de menores, facilitan este abuso.
Testimonio: Hye Jung Han, investigadora de Human Rights Watch, encontró 170 imágenes de niños brasileños en LAION-5B: “Sus fotos fueron robadas y convertidas en armas. Ahora, cualquier actor malicioso puede manipularlas” .

Studio Ghibli vs. OpenAI: La batalla legal por el “estilo”
Hayao Miyazaki, cofundador de Studio Ghibli, calificó el arte generado por IA como “un insulto a la vida misma” en 2016. Aunque el estilo no es protegible por derechos de autor, abogados como Josh Weigensberg señalan que copiar elementos específicos de películas como El Viaje de Chihiro podría ser ilegal.
OpenAI bajo la lupa:
- La compañía afirma bloquear solicitudes que imiten a “artistas vivos“, pero permite estilos de estudios como Ghibli.
- En un comunicado, Sam Altman, CEO de OpenAI, bromeó: “Finalmente, la gente se interesa en nuestro trabajo… porque les hice un twink estilo Ghibli“.
Cómo protegerte (sin renunciar a la magia de Ghibli)
- Herramientas de verificación: Sitios como Have I Been Trained permiten buscar si tus imágenes están en datasets de IA.
- Cifrado y privacidad: Activa el cifrado de extremo a extremo en servicios como iCloud. Apple lo ofrece desde 2023.
- Presión colectiva: Organizaciones como el Centro de Privacidad y Tecnología de Georgetown exigen leyes que obliguen a las empresas a obtener consentimiento explícito para usar datos.
“No es normal, y no está bien”
Como advierte Emily Tucker, experta en privacidad, “Hemos normalizado que empresas y gobiernos exploten nuestros datos. No es normal”. Subir una selfie familiar al estilo Ghibli puede parecer divertido, pero en la era de la IA, cada pixel es un eslabón en una cadena de riesgos biométricos, legales y éticos que apenas comenzamos a entender.
Recursos:
- Informe completo de Human Rights Watch sobre niños en LAION-5B .
- Campaña “ShareWithCare” de Deutsche Telekom.
- Demanda de Karla Ortiz contra generadores de IA.
Este reportaje se realizó con aportes de AP, Human Rights Watch y documentos técnicos de OpenAI. Las imágenes utilizadas son ilustrativas y no corresponden a casos reales para proteger la identidad de menores.
Escrito por José Leonett.
