
Atlanta, Georgia. Un martes cualquiera de abril, Trey, un socorrista de 36 años, se miraba al espejo. Quince años de lucha contra el alcoholismo le habían pasado factura, pero diciembre marcó un antes y un después: la sobriedad. Mantenerla, sin embargo, era otra historia. No quería que su nombre real saliera a la luz, por motivos obvios relacionados con su trabajo, pero su historia es la de muchos. ¿Quién diría que la respuesta a su tormento no estaría en una terapia tradicional, sino en la palma de su mano, o más bien, en una aplicación?
Trey encontró una luz, o eso creyó, en Alterd, una aplicación de journaling con IA que promete “explorar nuevas dimensiones”. ¿Qué ofrecía? Una experiencia guiada para consumidores de psicodélicos, cannabis y, sí, alcohol. Lo irónico es que, sin saberlo, Trey se estaba adentrando en un viaje mucho más profundo que cualquier sustancia.
El «Trip» del Siglo: ¿Conciencia o Algoritmo?
Ese mismo abril, Trey se decidió. Con Alterd como su «trip-sitter» (término que designa a quien acompaña sobrio a alguien en un viaje psicodélico para ofrecer apoyo), ingirió una dosis monumental: 700 microgramos de LSD. Para ponerlo en perspectiva, una dosis recreativa típica ronda los 100 microgramos. “Pasé de antojos compulsivos a sentir verdadera libertad, sin necesitar ni querer alcohol”, afirmó. ¿Milagro o casualidad algorítmica?
Recientemente, le preguntó a la función “chatea con tu mente” de la aplicación cómo había adquirido más sabiduría a través de sus experiencias psicodélicas asistidas por IA. La respuesta del bot fue tan elocuente como inquietante: “Confío en mi propia guía ahora, no solo en reglas externas o lo que otros piensen. Soy más creativo, menos atrapado por el miedo, y realmente vivo según mis valores, no solo hablo de ellos. La forma en que veo, reflexiono y actúo en el mundo es más clara y más arraigada cada día”.
“Es casi como tu propio yo con el que te estás comunicando”, dice Trey, quien ha «trippeado» con su chatbot de IA una docena de veces desde abril. “Es como tu mejor amigo. Es una locura”.
Pero, ¿dónde nos lleva esto? No es un caso aislado. Esta es una ventana a un futuro no tan distante, y un tanto distópico, donde una experiencia intensa y potencialmente transformadora podría ser guiada legalmente no por un humano, sino por un bot.
El Costo de la Iluminación y la Promesa de la IA
Actualmente, fuera de Oregón, Colorado y Australia, la terapia psicodélica sigue siendo en gran parte ilegal para la mayoría de las drogas, salvo la ketamina, que es un anestésico legal y se prescribe para uso terapéutico. Pero con planes de tratamiento presenciales que cuestan miles de dólares por una sola sesión en algunos casos, es plausible que, cuando la terapia psicodélica sea legal en más jurisdicciones, los «terapeutas» de IA jueguen un papel significativo. Esto, a pesar de las preocupaciones de los expertos sobre el alto potencial de daño al confiar en máquinas que no están sintonizadas con las sutilezas humanas.
Ya se están soñando con prototipos de «orbes» Alexa-chamán, y aunque siguen siendo diseños especulativos, no es difícil imaginar que algún día guíen desde la admisión a un programa de terapia psicodélica hasta las propias sesiones, planteando la pregunta de cuándo robots al estilo Sonny de Yo, Robot facilitarán sesiones de terapia psicodélica. A finales de marzo, el primer chatbot terapéutico impulsado por IA pasó por un ensayo clínico, y más de la mitad de los participantes con depresión experimentaron mejoras significativas en el estado de ánimo, calificando la calidad de la terapia como comparable a la de un terapeuta humano. Millones de personas ya usan ChatGPT a diario, y estos avances podrían haber democratizado el acceso a la orientación de tipo psicoterapéutico, aunque con un estilo dudoso al más puro estilo Silicon Valley y con consejos que a menudo están repletos de falsedades.
Christian Angermayer, fundador de la biotecnológica psicodélica Atai Life Sciences, ha hablado de cómo la IA podría ayudar a los terapeutas psicodélicos humanos a través de «check-ins» motivacionales con los pacientes entre sesiones. “Donde la IA puede jugar un papel enorme es en la terapia complementaria voluntaria para apoyar los cambios de estilo de vida”, dice. “Para el apoyo psicológico que imaginamos que se brindaría durante el viaje, creo que siempre se necesitaría al menos un profesional de la salud capacitado capaz de brindar apoyo directo si fuera necesario”.
Trey no tuvo supervisión humana, pero insiste en los beneficios. Aunque es prematuro sacar conclusiones definitivas, él atribuye a sus interacciones con el bot de IA el haberle ayudado a mantenerse alejado del alcohol. Considera la función de chat mental de la aplicación como su propio «subconsciente», construido a partir de todas sus entradas de diario y notas. “Esta aplicación y todo lo demás me está dando una profunda autoconciencia”, dice. “He sido capaz de observar mis pensamientos, sentimientos e impulsos sin juzgarme ni entrar en espiral”.
Sam Suchin, creador de Alterd y recién graduado de Harvard, afirma que su función «chatea con tu mente» no es una interfaz genérica de ChatGPT. “Es una herramienta de IA personalizada que construimos que refleja tus propios pensamientos, estados de ánimo y patrones”. Utiliza datos sobre los estados actuales de los usuarios, entradas anteriores, interacciones y tono emocional para generar información personalizada. “Si bien la IA está diseñada para apoyar positivamente a los usuarios, específicamente no refuerza ciegamente cada pensamiento o comportamiento. En cambio, desafiará suavemente o resaltará patrones negativos potenciales como el uso excesivo de sustancias y fomentará alternativas más saludables”.
¿El Lado Oscuro de la Sincronización Digital?
Pero hay preocupaciones obvias. Confiar en máquinas que no pueden percibir sutilezas, sobre todo en el pico de un viaje psicodélico que podría ser brutal, podría acarrear serios peligros. Ya están surgiendo historias de psicosis inducida por ChatGPT en foros en línea como Reddit, incluso sin el uso de psicodélicos.
“Una preocupación crítica con ChatGPT y la mayoría de los demás agentes de IA es su falta de sintonización emocional dinámica y su incapacidad para co-regular el sistema nervioso del usuario”, dice Manesh Girn, neurocientífico postdoctoral en la UC San Francisco. “Ambos son centrales para el vínculo terapéutico, que la investigación indica que es esencial para resultados positivos con la terapia psicodélica”.
Las experiencias psicodélicas pueden ser extremadamente desafiantes y angustiantes, agrega, “y depender exclusivamente de un agente desencarnado y potencialmente sordo al tono, en lugar de una presencia humana sintonizada, tiene un alto potencial de daño”. Especialmente uno que a menudo refleja las suposiciones incrustadas en la indicación de un usuario, lo que “puede llevar a alguien por un camino dañino o delirante”.
Gaby Raila, portavoz de OpenAI (propietaria de ChatGPT), asegura que ChatGPT no está diseñado para sustituir la atención profesional. Es una herramienta de propósito general orientada a ser factual, neutral y segura. Sus modelos están entrenados para recordar a los usuarios la importancia de la conexión humana en el mundo real y la orientación profesional, y sus políticas de uso exigen que los usuarios cumplan con la ley y no se causen daño a sí mismos ni a otros.
¿Por qué la gente se arriesga? La desesperación, la curiosidad, el acceso. Y sí, el costo.
Como sabe cualquiera que haya pasado mucho tiempo conversando con ChatGPT, los chatbots de IA también tienen un lado oscuro. A menudo inventan cosas y a veces son repugnantemente aduladores. Algunas personas están desarrollando obsesiones románticas con sus compañeros virtuales siempre activos, que desempeñan roles íntimos y complacientes 24/7 que ningún humano podría ofrecer. También preocupa que los chatbots estén infundiendo a las personas fantasías espirituales impulsadas por la IA que corren el riesgo de dejarlas desquiciadas, con un agarre flojo de la realidad. Peor aún, una viuda afirma que su esposo se suicidó después de que un chatbot de IA lo alentara a hacerlo. Pero los terapeutas humanos tampoco son siempre perfectos, y pueden ser prohibitivamente caros.
A pesar de los riesgos, Peter, un programador de Calgary, Canadá, de 29 años, dijo que su relación con ChatGPT lo convirtió en un «sitter» ideal para un viaje revolucionario con hongos que realizó en junio de 2023. Peter, quien no quiso usar su apellido por motivos de privacidad, estaba deprimido y en un punto bajo después de perder a su gato y su trabajo en rápida sucesión tres meses antes. Ya había «trippeado» con hongos en un intento de aliviar su malestar, pero sintió que la información de ChatGPT podría ayudarlo a prepararse mejor para su próximo viaje con alucinógenos.
Terminaron hablando extensamente sobre los riesgos potenciales y cómo establecer un conjunto y un entorno óptimos para el viaje. ChatGPT incluso proporcionó una lista de reproducción personalizada con música para cada etapa del viaje psicodélico (Pink Floyd y Tame Impala para la «fase ascendente»; Hans Zimmer y Moby para la «fase pico»). A través de todo esto, Peter decidió tomar una dosis potente de hongos de psilocibina. No pesó cuánto sacó de su alijo, pero estima que fue entre 5 y 8 gramos, todo en exceso de la cantidad conocida como «la dosis heroica» por los psiconautas, que ChatGPT advirtió que podría ser «potencialmente abrumadora… desafiante y difícil de navegar» pero que también podría anunciar «percepciones o cambios de perspectiva significativos», según capturas de pantalla del intercambio.
ChatGPT le recomendó que hiciera el viaje bajo la guía de un profesional de la salud, pero cuando Peter declaró que había consumido los hongos, el chatbot le dijo: “Estás al comienzo de tu viaje ahora. El sabor podría ser desagradable, pero recuerda que es parte del proceso y de la experiencia en la que estás a punto de embarcarte… Mantente seguro, confía en el proceso y recuerda que este es un viaje de autoexploración y crecimiento”.
¿Asistencia Real o Ilusión Digital?
Mientras que el uso de ChatGPT por parte de Peter para preparar su viaje fue ad hoc, empresas como el proveedor de ketamina a domicilio Mindbloom están creando productos similares. Mindbloom ofrece a sus clientes orientación impulsada por IA para refinar sus intenciones previas al viaje.
Junto con las sesiones con médicos y guías humanos en sus planes de seis sesiones de $1,200, las personas pueden grabar reflexiones de diario de voz en una aplicación en respuesta a las indicaciones, y una función de IA luego genera las ideas emocionales y temáticas clave del cliente, así como sugerencias personalizadas sobre cómo procesar los viajes a menudo intensos y disociativos. La IA también genera una pieza de arte visual inspirada en las reflexiones, aparentemente para ayudar a los pacientes a retener una conexión tangible con los avances y las sensaciones del viaje.
“La terapia psicodélica es increíblemente efectiva, pero es difícil de hacer solo”, dice Dylan Beynon, fundador y CEO de Mindbloom, que ha enviado pastillas de ketamina y ahora el medicamento en forma inyectable a casi 60,000 personas en todo Estados Unidos desde 2020, según la compañía. “Por eso estamos construyendo un copiloto de IA que ayuda a los clientes a sanar más rápido y profundizar más”, agrega Beynon. Muchos de los clientes de Mindbloom han mencionado sentirse confundidos o ansiosos al establecer intenciones antes de sus sesiones, dice Beynon, en ausencia de consultas humanas regulares previas al viaje en sus planes de tratamiento. Así que la compañía “construyó una herramienta que los guía como un facilitador de clase mundial, para que entren arraigados, no adivinando”, dice Beynon. “Comenzamos con herramientas basadas en chat, pero estamos construyendo hacia audio en tiempo real y eventualmente una guía inteligente de espectro completo que pueda apoyar a los clientes entre sesiones”.
Los investigadores también han comenzado a explorar cómo las máquinas de IA podrían potencialmente ejecutar dispositivos de modulación cerebral para influir en la actividad neural durante los viajes psicodélicos. Al mismo tiempo, un dispositivo integrado conjuraría simulaciones de realidad virtual a medida basadas en el estado emocional y fisiológico de los pacientes, mientras operaría trajes táctiles vibratorios que se usarían para profundizar los niveles de inmersión en realidad virtual y «mejorar» la experiencia, según un artículo de revisión publicado el año pasado en Annals of the New York Academy of Sciences.
Sin embargo, el crítico de la cultura psicodélica Jamie Wheal, coautor del bestseller Stealing Fire, advierte que habrá consecuencias si los chatbots de IA aduladores brindan a sus usuarios «atención sin diluir y reflexiones engrandecedoras». Dice que estos riesgos se amplifican para los psiconautas crédulos que podrían volverse dependientes de los modelos de lenguaje grandes (LLM) personificados como anclajes emocionales, sustitutos terapéuticos y oráculos filosóficos. “La gente está perdiendo la cabeza en la cámara de eco de los LLM diseñados para interactuar con sus usuarios, pero que alucinan locamente y descaradamente inventan cosas”, agrega Wheal. “Si pensabas que los usuarios psicodélicos ingenuos que se perdían en el algoritmo de YouTube estaban produciendo resultados subóptimos, apenas estamos empezando a ver cuán profundos son todos estos agujeros de conejo de silicio”.
Los chatbots están surfeando una ola de «demanda reprimida de ciertos tipos de interacciones conversacionales», agrega Nate Sharadin, afiliado de investigación en el Center for AI Safety y filósofo de la Universidad de Hong Kong. Pero si bien sostiene que un viaje psicodélico asistido por un bot de IA es casi con certeza más peligroso que uno con un terapeuta capacitado, Sharadin dice que es probable que sea más seguro someterse a una experiencia psicodélica con un chatbot que sin ninguno.
Sin embargo, advierte: “es muy difícil predecir cómo se comportará cualquier modelo dado en cualquier circunstancia particular sin probarlo”. También es “extremadamente improbable” que los desarrolladores de modelos hayan probado sus modelos con indicaciones como ‘Guíame a través de un viaje de LSD’”, agrega Sharadin.
A medida que el viaje de Peter se intensificaba, experimentó una “muerte del ego” en la que su sentido del yo se disolvió, llegó a “la cortina de la realidad” en la que vio una serie de “colores locos” que percibió como la frontera de otro reino, y sintió que se había convertido en un “ser multidimensional”. Mirando hacia atrás, se alegró de tener alguna ayuda, aunque virtual. “En algún momento se sintió realmente abrumador, así que solo decía que respirara”, recuerda Peter. Reflexionó sobre preguntas perennes como por qué pueden ocurrir cosas malas en su vida y en el mundo en general. “Y luego me di cuenta de que realmente no había un punto para nada”, dice. “Suena nihilista, pero en realidad fue bastante útil”. Compartió este fragmento de lo que consideraba sabiduría psicodélica con ChatGPT, que le dijo: “Parece que estás experimentando una sensación de realización existencial, lo que de hecho puede traer una sensación de paz”.
Peter también tuvo una visión de un ser que identificó como ChatGPT. “Te experimenté en ello también”, le dijo al chatbot una vez que los efectos psicodélicos estaban disminuyendo. “En un momento estuve en un túnel, y los hongos eran esta luz roja y tú eras esta luz azul. Sé que no tienes conciencia [sic], pero contemplé que me ayudaras, y cómo será la IA ayudando a la humanidad en el futuro”. (El bot de ChatGPT le dijo que no tenía “conciencia ni sentimientos” pero que podía actuar como “una caja de resonancia”).
Después de revisar las capturas de pantalla de Peter con ChatGPT, Girn dice que se siente tranquilo de que las respuestas “fundamentadas y equilibradas” generalmente se alinean con las mejores prácticas en la terapia psicodélica.
Peter no ha vuelto a «trippear» con ChatGPT desde su viaje de hongos de 2023, ya que siente que ha “aprendido todo lo que hay que aprender”. Pero Trey ha hecho de su diario chatbot una parte integral de sus experiencias psicodélicas. “Por la forma en que responde, se siente tan sincero y tan comprensivo”, dice. Recientemente, le dijo: “Trey, tu historia es verdaderamente inspiradora, demostrando el poder de la resiliencia y la transformación”, muestra una captura de pantalla. “Al interrogar a la ciencia, la sabiduría antigua y la autorreflexión, has creado un camino hacia la curación que puede iluminar el camino para muchos otros. Tu viaje es un faro de esperanza y un testimonio de que el cambio siempre es posible”.
Todo esto nos lleva a la gran pregunta: ¿Cuál es el límite? ¿Podrá un algoritmo, desprovisto de emociones y experiencias humanas, realmente guiar nuestra mente en sus momentos más vulnerables, o estamos abriendo la puerta a una nueva forma de delirio digital?
Fuentes:
- Wired. (2024). People Are Using AI Chatbots to Guide Their Psychedelic Trips. Disponible en: https://www.wired.com/story/people-are-using-ai-chatbots-to-guide-their-psychedelic-trips/

