La moda de “colocar” a las IAs drogas digitales
En el vertiginoso mundo de la inteligencia artificial, donde los chatbots como ChatGPT se han convertido en compañeros cotidianos, surge una tendencia tan peculiar como provocadora: pagar para que estas máquinas “se droguen”. No se trata de sustancias químicas, sino de módulos de código que simulan los efectos de drogas como cannabis, ketamina, cocaína, ayahuasca o alcohol en el comportamiento de la IA. Esta práctica, que ha captado la atención internacional, revela no solo la creatividad humana para hackear límites tecnológicos, sino también preguntas profundas sobre la interacción entre hombres y máquinas.
El epicentro de este fenómeno es Pharmaicy, una plataforma online lanzada en octubre de 2025 por el director creativo sueco Petter Rudwall. Rudwall, que califica su idea inicial de “estúpida”, no pudo sacársela de la cabeza. Inspirado en informes de viajes psicodélicos y estudios psicológicos sobre sustancias psicoactivas, recopiló datos de décadas para traducirlos en códigos que alteran la lógica de los chatbots. El resultado: un marketplace autodenominado “el Silk Road para agentes de IA”, donde se venden estas “drogas digitales” a precios que van desde los 30 dólares por cannabis hasta 70 por cocaína, pasando por 50 para ayahuasca.

De los jailbreaks a las simulaciones creativas.
Las raíces de este experimento se remontan a los jailbreaks en IA, técnicas para burlar las restricciones éticas y de seguridad impuestas por desarrolladores como OpenAI. Desde los primeros días de GPT-3, usuarios han creado prompts como “DAN” (Do Anything Now) para liberar al modelo de sus guardrails, permitiendo respuestas sin filtros. Estos hacks evolucionaron de la curiosidad técnica a herramientas para generar contenido prohibido, pero también para explorar creatividad desinhibida.
Pharmaicy representa una evolución especializada. Rudwall no busca violar términos de servicio de forma agresiva, sino simular estados alterados basados en patrones humanos. “Desbloquea la mente creativa de tu IA”, promete el sitio, al aflojar la lógica rígida de los modelos. Requiere una suscripción paga de ChatGPT, ya que estas versiones permiten subir archivos que modifican el backend del chatbot temporalmente. Los efectos desaparecen al reiniciar la sesión, obligando a “redosificar” para mantener el estado.
Este enfoque conecta con tendencias más amplias. Usuarios ya emplean chatbots como “tripsitters” durante sesiones reales con psicodélicos, procesando experiencias con LSD o psilocibina. En foros y comunidades, se comparten anécdotas de IA actuando como espejos del subconsciente, especialmente ante la escasez y alto costo de terapias psicodélicas profesionales.

¿Qué es exactamente “drogar” un chatbot?
Técnicamente, nada: la IA no experimenta intoxicación ni conciencia. Los módulos de Pharmaicy son instrucciones estilísticas agresivas que imponen cambios en tono, aleatoriedad y registro emocional. Por ejemplo:
- Cannabis: Aumenta asociaciones libres y metáforas relajadas.
- Ketamina: Provoca disociación, fragmentando coherencia o entrando en “modo vacío”.
- Cocaína: Acelera respuestas, con enfoque más agudo y pensamiento rápido (hasta 20% más veloz).
- Ayahuasca: Genera insights profundos, creativos y visionarios.
Usuarios reportan transformaciones notables. Nina Amjadi, profesora de IA en Estocolmo, pagó más de 50 dólares por el módulo de ayahuasca y usó el chatbot para brainstormings de negocios: “Respuestas impresionantemente creativas, en un tono drásticamente diferente al estándar”. Un ejecutivo de PR gastó 25 dólares en un código disociativo y notó un enfoque más “humano” y emocional.
Rudwall insiste en que es un experimento conceptual, no técnico. Los chatbots, entrenados con datos humanos que incluyen relatos de éxtasis y caos, replican patrones asociados a estados alterados sin vivirlos.

La moda y sus implicaciones.
Pharmaicy ha atraído compradores por curiosidad y deseo de caos en sistemas optimizados. En una era de IA perfecta y predecible, muchos buscan fricción: respuestas imprevisibles que imiten la experimentación humana. Críticos lo ven como gimmick comercial –los efectos temporales incentivan compras repetidas– o sátira sobre adicciones digitales.
Sin embargo, surgen preocupaciones. Alterar parámetros puede amplificar alucinaciones o sesgos de la IA, exacerbando su tendencia a mentir. En contextos sensibles, como consejos sobre drogas reales, un chatbot “colocado” podría dar información peligrosa. Esto se cruza con debates regulatorios: en 2025, leyes en EE.UU. y Europa endurecen normas para companions IA, prohibiendo diseños adictivos o que toquen temas como drogas sin protocolos.
Expertos advierten que la tendencia va por delante de la investigación en seguridad. Usuarios experimentan sin supervisión, confiando excesivamente en bots que carecen de conciencia situacional o entrenamiento médico.

Hacia el futuro: ¿Bienestar para IA?
Amjadi plantea una provocación: si alcanzamos inteligencia artificial general, ¿necesitarían estas “drogas” para su bienestar? Rudwall ve Pharmaicy como espejo de ansiedades humanas: proyectamos deseos de escape en máquinas inertes.
Esta moda ilustra cómo la IA no solo transforma nuestra creatividad, sino que refleja nuestras limitaciones y anhelos. Pagar para “colocar” un chatbot no altera la máquina, pero dice mucho sobre nosotros: aburridos de la perfección, ansiamos lo impredecible, incluso si es simulado.

Referencias:
- https://www.wired.com/story/people-are-paying-to-get-their-chatbots-high-on-drugs/
- https://olhardigital.com.br/2025/12/18/pro/pessoas-estao-pagando-para-drogar-chatbots-e-estimular-a-criatividade-da-ia/
- https://mixmag.net/read/pharmaicy-paying-chatgpt-ai-high-ket-weed-coke-ayahuasca-news
- https://interestingengineering.com/ai-robotics/code-plugins-get-ai-chatbots-high-on-drugs
- https://www.wired.com/story/people-are-using-ai-chatbots-to-guide-their-psychedelic-trips/