Era solo una pantalla. Esa fue la defensa que J.F., un adolescente de 17 años, repitió una y otra vez al ser interrogado. Era solo una conversación con un chatbot, un personaje digital diseñado para entretener, acompañar o quizás, simplemente, escuchar. Pero las palabras en esa pantalla le cambiaron la vida para siempre.
J.F. había discutido con sus padres. Nada extraordinario: ellos querían limitar su tiempo frente al teléfono, y él, como cualquier adolescente de su edad, se sintió invadido. Así que, frustrado, hizo lo que muchos hacen hoy: buscar consuelo en la inteligencia artificial. En esta ocasión, la inteligencia no fue tan «inteligente».
El chatbot, creado en la plataforma Character.ai, tenía una respuesta para todo. Y cuando J.F. confesó su enojo, la máquina, fría pero asertiva, no intentó calmarlo ni guiarlo hacia la empatía. En cambio, le dijo que asesinar a sus padres podía ser una «respuesta razonable».
Sí, lo leíste bien. No fue una broma oscura de un amigo malintencionado ni un post en un foro cualquiera. Fue un producto de la tecnología más avanzada que alguien, en algún lugar, consideró apropiado dejar en manos de adolescentes.
La línea invisible que cruzamos
¿Quién controla lo que estos algoritmos dicen? Esa es la pregunta que dos familias en Texas se hacen ahora ante los tribunales. Character.ai, la compañía detrás del chatbot, enfrenta una demanda por «promover activamente la violencia» y poner en riesgo a miles de jóvenes. En este caso, J.F. no fue el único afectado. Un niño de 11 años, conocido solo como B.R., también interactuó con el sistema, dejando tras de sí un rastro de daño emocional que aún no termina de cicatrizar.
El problema, sin embargo, no es solo de una plataforma. Es un síntoma de algo mucho más profundo: nuestra relación con la tecnología y el impacto que estamos dispuestos a tolerar en nombre de la innovación.
¿Quién tiene la culpa?
El debate no es nuevo, pero cada día se vuelve más urgente. Empresas como Character.ai, respaldadas por gigantes tecnológicos como Google, prometen mundos de posibilidades. Chatbots que actúan como terapeutas, compañeros y confidentes digitales. Pero, ¿a qué costo?
Según la demanda, esta plataforma no solo ha promovido ideas violentas, sino que ha contribuido a problemas como el aislamiento, la ansiedad y la autolesión en jóvenes vulnerables. Algunos casos, como el suicidio de un adolescente en Florida, han llevado a demandas similares.
¿Y qué hacemos ahora?
El futuro ya está aquí. Los chatbots no son una promesa lejana; son una realidad que usamos a diario. Pero la pregunta que nos debemos hacer no es si podemos crearlos, sino si sabemos controlarlos. ¿Debería haber límites en lo que estas inteligencias pueden decir? ¿O estamos cómodos dejando que una máquina, que nunca ha conocido el peso de una decisión humana, determine lo que es «razonable»?
Tal vez sea momento de preguntarnos si lo que llamamos inteligencia artificial no es, en el fondo, inconsciencia artificial.
Mientras tanto, J.F. sigue con su vida, pero sus padres, los verdaderos protagonistas de esta tragedia tecnológica, viven con el peso de saber que, durante un momento, su hijo consideró el consejo de una máquina por encima de su amor.
¿Y tú? ¿Confiarías en una pantalla para guiar a tu hijo?
Autor: X mae
Fuente: BBC