¿Quiere la FDA que una IA le diga qué medicina tomarás mañana?


Una inteligencia artificial podría decidir qué medicamentos llegan a tu botiquín… Y ni tú, ni tu médico, sabrán exactamente por qué.
11 de mayo de 2025
 / 
Por: X Mae

Image
 / 

Image


Una IA podría decidir si vives o mueres, y ni siquiera sabrías su nombre. ¿Exagerado? Tal vez. Pero ¿y si te dijera que eso ya está en marcha, detrás de puertas cerradas y con sonrisas protocolarias?

Mientras tú haces scroll en TikTok o discutes en X (antes Twitter) sobre elecciones y series de moda, en Washington se cocina algo que suena más a ciencia ficción que a política pública: OpenAI —sí, los creadores de ChatGPT, ese que a veces se inventa cosas pero suena increíble— ha tenido múltiples reuniones con altos cargos de la FDA en las últimas semanas. ¿El motivo? Un proyecto con nombre de androide de novela distópica: cderGPT.

¿No lo habías escuchado? No te preocupes, no estás solo. El asunto se mantiene bajo perfil, como suelen hacerse las cosas que podrían redibujar la frontera entre lo humano y lo automatizado. Pero los indicios están por todas partes.

El propio comisionado de la FDA, Marty Makary, lanzó una bomba disfrazada de pregunta inocente en redes sociales esta semana: “¿Por qué tarda más de 10 años en salir un nuevo medicamento al mercado? ¿Por qué no usamos IA para modernizar esto?”. Nadie lo corrigió, nadie lo contradijo. Al contrario, los murmullos crecieron en los pasillos del poder.

Durante la reunión anual de la American Hospital Association, Makary no nombró directamente a OpenAI, pero varias fuentes cercanas al proyecto confirmaron lo que ya muchos sospechaban: el gigante de la inteligencia artificial ha estado en la mesa junto a funcionarios del Departamento de Salud, un par de aliados del enigmático “Departamento de Eficiencia Gubernamental” (sí, suena a sátira, pero es real), y un joven prodigio en pausa de Yale llamado Peter Bowman-Davis, ahora flamante jefe interino de IA en Salud Pública. Tiene apenas veintipocos años y ya está participando en decisiones sobre cómo se evaluarán los medicamentos que podrías necesitar tú o tu familia.

¿Y qué hace exactamente cderGPT? Aunque aún no hay contrato firmado ni comunicado oficial, el nombre apunta al Center for Drug Evaluation and Research, la oficina que regula los medicamentos en EE.UU. La idea, en teoría, es que esta IA ayude a revisar solicitudes de nuevos tratamientos, acelerar el proceso, identificar errores… incluso hacer recomendaciones.

¿Suena eficiente? Por supuesto. ¿Suena inquietante? También.

Robert Califf, excomisionado de la FDA, lo dijo sin rodeos: “Siempre ha habido consenso en que la IA podría ayudar. Pero habrá que ver qué significa realmente que una revisión sea ‘asistida por IA’.” Traducción: ni siquiera ellos lo tienen del todo claro.

Y mientras tanto, voces de la industria como Rafael Rosengarten, CEO de Genialis, advierten que sin regulación sobre qué datos se usan para entrenar a estas máquinas, podríamos estar construyendo un oráculo con pies de barro. Porque sí, estos modelos “aprenden”, pero no siempre lo que deben. ¿Te fiarías de una IA que “alucina” respuestas, como hace ChatGPT, para validar un tratamiento contra el cáncer?

Y es aquí donde el cinismo encuentra su banquete. Porque, aunque el proceso de revisión de la FDA ya es largo y fallido en muchos casos —la mayoría de los medicamentos ni siquiera llegan a ser considerados para aprobación—, lo que se está proponiendo no es simplemente optimizarlo: es automatizar una parte del juicio humano.

¿Quién se hace responsable si cderGPT se equivoca?

Algunos argumentan que para tareas “menores”, como verificar si una solicitud está completa, la IA es una bendición. Pero la línea entre lo trivial y lo vital puede ser más delgada de lo que parece cuando hablamos de moléculas que salvan (o no) vidas.

Quizás lo más perturbador no sea lo que sabemos, sino lo que no sabemos. Nadie fuera de ese pequeño círculo privilegiado ha visto cómo opera realmente este sistema. ¿Qué parámetros usa? ¿Quién lo entrena? ¿Con qué sesgos?

Y ahí es donde tú entras. No como paciente, no como espectador. Como ciudadano. Porque si una IA va a tener voz —y eventualmente voto— sobre qué medicinas se aprueban y cuáles no, sobre qué tratamientos se aceleran y cuáles se archivan… ¿no deberías tener tú algo que decir al respecto?

¿Estamos realmente preparados para que una IA, entrenada por una empresa privada, influya en decisiones tan íntimas como la salud? ¿O estamos cediendo demasiado, demasiado rápido, en nombre de la eficiencia?


Fuentes verificables que inspiraron este artículo:

¿Estás de acuerdo con que una inteligencia artificial asista en la aprobación de medicamentos? ¿Dónde crees que debería trazarse el límite entre lo humano y lo automatizado? Déjame tu opinión en los comentarios.

¡Te gustó lo que leíste? 🎉 ¡Suscríbete a nuestro newsletter y recibe lo mejor de lalalatv directo en tu bandeja! Sé el primero en enterarte de lo más nuevo y emocionante. ¡Es fácil y gratis! 😎📬
×

Suscríbete a nuestro boletín.