aiglobalhealth.blog

De las primeras conversaciones con un modelo de lenguaje, a la construcción de flujos multiagente que amplifican la práctica clínica.

En retrospectiva, 2022 parece mucho más lejano de lo que indica el calendario. Fue, sin exagerar, el año en que la Generative AI dejó de ser algo que yo solo veía en papers o en conferencias médicas —con gráficas bonitas y promesas a futuro— para convertirse en una herramienta que podía abrir desde el sofá de mi casa. En cuestión de semanas, lo que antes era territorio casi exclusivo de investigadores se coló en la pantalla de cualquiera con conexión a internet.

Recuerdo perfectamente la primera vez que probé un modelo de lenguaje avanzado. Como casi todo el mundo, empecé con ChatGPT, una de las versiones iniciales. No fue solo lo que me contestó lo que me dejó pensando, sino la velocidad con la que lo hizo. Las palabras aparecían en la pantalla a un ritmo casi hipnótico… y eso me atrapó. Era como conversar con alguien que pensaba en voz alta, pero a una velocidad que ningún humano podría sostener. No tenía manos, pero escribía; no tenía oídos, pero entendía.

Los primeros días fueron un festival de curiosidad infantil. Le pedía que resumiera un artículo médico, que escribiera una carta formal, que explicara un término complicado como si estuviera hablando con un paciente. Incluso —y esto lo hice con algo de picardía— le pasé resultados viejos de exámenes de sangre míos, solo para ver cómo los interpretaba. No siempre acertaba, pero la sensación de estar frente a una nueva categoría de herramienta era inconfundible.

En ese momento, mi relación con la IA era simple: yo preguntaba, ella respondía. Punto. Un flujo rápido, lineal… y confieso que algo adictivo. Pero, con el tiempo, empecé a notar algo más. No solo me devolvía información; podía transformarla, darle otro tono, adaptarla a un contexto distinto. Era como tener un traductor universal de ideas.

Luego llegaron las actualizaciones. Las versiones más recientes empezaron a asomarse al mundo exterior: podían conectarse con otros sistemas, leer documentos, analizar hojas de cálculo, hasta reservar un vuelo. Recuerdo que las vi aparecer y, curiosamente, no me lancé a probarlas de inmediato. No fue por falta de interés, sino por esa mezcla rara de resistencia y prudencia que uno siente cuando algo nuevo amenaza con cambiar las reglas del juego.

Y ahí, a inicios de 2024, escuché por primera vez el término Agentic AI. Hasta entonces, para mí la IA era reactiva: esperaba que yo le dijera qué hacer. Los agentes, en cambio, prometían algo distinto… y mucho más inquietante: podían tomar un objetivo y decidir, por sí mismos, qué pasos seguir para alcanzarlo.

En mi exploración, he pasado de conocer agentes muy básicos —capaces de automatizar tareas repetitivas o hacer búsquedas guiadas— a investigar y observar, principalmente en demostraciones, plataformas que despliegan verdaderas arquitecturas multiagente como n8n. En ellas, distintos módulos pueden trabajar en paralelo y de forma coordinada para lograr un objetivo complejo. Algunos de estos sistemas, según lo mostrado por sus desarrolladores, son capaces de analizar imágenes médicas, cruzar esos datos con guías clínicas y devolver recomendaciones diagnósticas y terapéuticas en un formato listo para integrar al flujo de trabajo clínico.

En estos últimos meses, he dedicado tiempo a estudiar y probar de forma puntual estas plataformas. He visto —en demos y experimentos controlados— cómo un agente puede comunicarse con otro, delegar tareas y anticipar pasos, como si fueran miembros invisibles de un equipo perfectamente sincronizado. Y confieso que incluso, he soñado con tener un agente que me ayude a escribir, mientras trabajo, la novela que estoy desarrollando llamada Sueños Cuánticos, un proyecto literario que explora la IA, la conciencia y la interacción, mientras dormimos, con el mundo cuántico.

Ese sueño de un agente que colabore en una obra creativa no está tan lejos de la realidad. He visto prototipos de sistemas que, alimentados con capítulos previos, proponen giros narrativos coherentes, enriquecen el estilo o detectan inconsistencias en la trama. En el terreno médico, la misma lógica se aplica para que un agente siga el historial de un paciente, detecte anomalías y sugiera próximos pasos sin que el clínico tenga que estar revisando cada registro.

Pero si algo he aprendido en este viaje, es que la capacidad técnica por sí sola no garantiza valor real. La historia reciente de la IA está llena de herramientas impresionantes que no lograron integrarse de forma efectiva en la práctica diaria, ya sea por falta de confianza, problemas éticos, o simplemente porque no resolvían una necesidad real.

En el caso de la salud, la adopción de Agentic AI implica desafíos adicionales: la seguridad de los datos, la validación clínica, la transparencia en las decisiones y, sobre todo, la alineación con los valores que guían la práctica médica.

Y aquí es donde empieza la verdadera historia que quiero contar: no solo cómo pasamos de los primeros experimentos con Generative AI a la construcción de agentes cada vez más sofisticados, sino cómo estos sistemas están redefiniendo la forma en que concebimos el trabajo en salud, y qué preguntas éticas, regulatorias y humanas debemos responder antes de dejarlos actuar por su cuenta.

Conforme avanzaba en mis observaciones y pruebas puntuales, me di cuenta de que entender realmente el potencial de la Agentic AI exigía mucho más que leer artículos o ver demostraciones: requería interactuar, aunque fuera de forma limitada, y analizar cómo respondía en distintos contextos.

Mi primer choque de realidad no vino de un experimento propio, sino de observar una demostración en la que un agente debía organizar y priorizar datos médicos complejos de un caso clínico simulado. Sobre el papel, el flujo parecía impecable: identificar diagnósticos diferenciales, consultar guías y devolver un plan ordenado. El resultado, sin embargo, fue un listado muy bien formateado… con omisiones críticas. Esa observación me llevó a una regla personal que procuro no olvidar: ningún agente, por más sofisticado que parezca, debe escapar a la revisión crítica de un profesional en su área de aplicación. Es un recordatorio sencillo, pero necesario: la tecnología no se despliega en un vacío, sino en entornos donde las consecuencias son reales.

A partir de ahí, mi exploración tomó dos caminos paralelos: uno técnico, donde analizaba la arquitectura de los agentes —cómo se integran módulos de razonamiento, memoria, herramientas externas y cómo orquestan tareas— y otro ético-práctico, donde evaluaba cómo esas capacidades podían —o no— encajar en el flujo de trabajo clínico sin generar dependencia ciega ni sobrecarga cognitiva para el profesional.

En la ruta técnica, me fascinó descubrir que muchos de los principios detrás de la Agentic AI no son completamente nuevos. En medicina, llevamos décadas usando sistemas de soporte a la decisión clínica (CDSS), pero con reglas fijas y alcances limitados. La diferencia ahora es que un agente puede aprender nuevas estrategias, adaptarse a información cambiante y comunicarse de forma natural con humanos y otros sistemas.

Uno de los experimentos más reveladores fue con una plataforma que, en una demostración guiada, permitía configurar un equipo virtual de agentes, cada uno con una especialidad: un “médico internista” que revisaba antecedentes, un “radiólogo” que analizaba imágenes y un “gestor administrativo” que verificaba autorizaciones de seguros. Yo observaba el flujo, dándoles un objetivo común y siguiendo cómo intercambiaban datos entre sí para proponer un plan.

Ver esa coordinación fluida fue tan impresionante como inquietante. ¿Qué pasaría si un día uno de esos agentes comete un error y los demás lo asumen como correcto? La potencia del trabajo en equipo se convierte en una cadena de amplificación, tanto para aciertos como para errores.

Por eso, en paralelo, seguía estudiando la literatura sobre automaticidad y value alignment. El concepto de automaticidad me resultaba atractivo: dejar que el sistema haga por sí mismo lo rutinario para liberar tiempo humano para lo complejo. Pero también es un arma de doble filo: cuanto más automático es un proceso, más invisible se vuelve para nosotros… hasta que algo sale mal.

El value alignment, en cambio, es un recordatorio constante de que toda tecnología refleja, de manera explícita o implícita, las prioridades de quienes la diseñan. En salud, eso significa asegurarse de que la IA no solo sea eficaz en promedio, sino justa y segura para todos los pacientes, sin importar su edad, origen o nivel socioeconómico.

Mi bitácora personal se llenaba de anotaciones de hipótesis, de reflexiones, y sí, también de frustraciones. Algunos agentes que prometían mucho resultaban poco más que un chatbot disfrazado. Otros, sin tanta publicidad, demostraban una capacidad sorprendente para adaptarse y aprender. Siempre en mis charlas recuerdo que el mundo de la IA está lleno de productos, que como dice el refrán de Costa Rica: «Son mucho Ring – Ring … y nada de helados».

Recuerdo especialmente una tarde en la que vi un video de un entorno simulado. Se trataba de un agente con un escenario inspirado en la vida real: un paciente con síntomas ambiguos, antecedentes incompletos y recursos limitados para hacer estudios. La respuesta del agente fue metódica, pero fría, sin considerar que en entornos reales las decisiones se toman con más incertidumbre que datos perfectos. Allí confirmé que la empatía clínica y la intuición siguen siendo patrimonio humano, al menos por ahora.

En ese contraste —entre lo que la IA puede hacer y lo que aún no sabe hacer bien— empecé a vislumbrar el verdadero rol de la Agentic AI en salud: no sustituir, sino amplificar.

En el sector salud, esta evolución no es solo tecnológica; es también conceptual. Al principio, los modelos simplemente respondían: útiles, pero pasivos. Luego, con la integración de herramientas y el acceso a datos externos, comenzaron a actuar dentro de un flujo definido. Finalmente, con la llegada de la Agentic AI, alcanzaron la capacidad de coordinar múltiples tareas en paralelo, con roles diferenciados, como si fueran un equipo invisible trabajando en sincronía.

Esta transición no significa reemplazar al médico o al personal de salud. Significa amplificar sus capacidades. Un agente bien diseñado puede liberar tiempo, reducir la carga administrativa y ofrecer una capa adicional de vigilancia en la información, sin que el profesional pierda el control de las decisiones. Amplificar es permitir que el clínico dedique más minutos a la conversación con el paciente porque ya no tiene que escribir cada dato en la historia; es ayudarle a detectar patrones en un conjunto de datos que serían invisibles al ojo humano; es reducir los tiempos de gestión y coordinar procesos sin sacrificar calidad. También es extender la cobertura a poblaciones que de otro modo no tendrían acceso a seguimiento ni a intervenciones preventivas.

El mismo concepto de amplificar puede ser peligroso si no se establecen límites claros. Un sesgo presente en los datos de entrenamiento puede multiplicarse en miles de decisiones. Un error de interpretación en un flujo automatizado puede propagarse de sistema en sistema sin que nadie lo note. La ausencia de supervisión humana puede hacer que un plan incorrecto se ejecute de manera consistente, como si fuera el camino óptimo.

Por eso, el valor de la Agentic AI no se mide únicamente por lo que puede lograr, sino por la forma en que lo hace y por las salvaguardas que lo acompañan. Aquí entran en juego la alineación de valores y la automaticidad responsable, que serán el hilo conductor de la siguiente parte de este artículo. La Agentic AI nos ofrece la oportunidad de multiplicar el impacto positivo del trabajo humano en salud, siempre que sus límites se diseñen con la misma precisión con la que se diseñan sus capacidades.

Hablar de un agente de IA puede sonar técnico o abstracto, pero la idea es sencilla si la pensamos en términos humanos. Un agente es, en esencia, una entidad capaz de recibir información, interpretarla, tomar decisiones y ejecutar acciones para cumplir un objetivo. La diferencia con los sistemas tradicionales está en la autonomía: mientras una herramienta convencional espera instrucciones precisas para cada paso, un agente puede decidir cuál es el siguiente movimiento sin que tengamos que indicárselo en cada instante.

En el plano clínico, esto implica que un agente no se limita a devolver un dato, sino que lo coloca en contexto, lo contrasta con otras fuentes y, a partir de ahí, propone un curso de acción. Lo fascinante de la Agentic AI es que esta lógica se puede orquestar entre varios agentes que trabajan de manera coordinada, cada uno especializado en una función distinta, pero compartiendo la misma memoria y objetivo. Es como un equipo humano que sabe cuál es la meta y se reparte el trabajo de forma natural, con comunicación fluida y roles bien definidos, o como un grupo de internos, residentes y médicos todos trabajando al unísono para lograr un objetivo.

La automaticidad, en este marco, no significa que la máquina haga todo por sí sola sin supervisión, sino que es capaz de ejecutar secuencias de pasos sin requerir microinstrucciones constantes. Esto libera a la persona de la fatiga de los procesos repetitivos, pero también exige un diseño cuidadoso de los límites de acción, para evitar que un error inicial se replique sin control. Aquí es donde entra la noción de automaticidad responsable: permitir que el agente actúe, pero con puntos de verificación, con espacios para la revisión humana, y con trazabilidad suficiente para entender por qué se tomó cada decisión.

La alineación de valores es, quizá, la parte menos visible pero más decisiva. No se trata solo de que el agente funcione técnicamente bien, sino de que sus decisiones y comportamientos estén en sintonía con principios éticos, regulaciones vigentes y expectativas culturales. En salud, esto implica respetar la privacidad de los pacientes, garantizar la equidad en el acceso a las soluciones y evitar sesgos que puedan favorecer o perjudicar a determinados grupos. En otros sectores, la lógica es similar: que las acciones de la IA no solo sean efectivas, sino también justas, transparentes y coherentes con el propósito de la organización.

Cuando entendemos estos tres elementos —el concepto de agente, la automaticidad responsable y la alineación de valores— dejamos de ver a la Agentic AI como una caja negra y empezamos a verla como un entorno de posibilidades. Ahí es donde se abre la puerta a la experimentación consciente. Probar cómo reaccionan distintos tipos de agentes ante un mismo objetivo. Configurar flujos simples y observar dónde funcionan bien y dónde se atascan. Iterar, ajustar, volver a probar.

Es justamente en ese espíritu de exploración donde quiero dejar el cierre de este artículo: en la invitación a “jugar” con estas plataformas. No se trata de un juego sin consecuencias, sino de un espacio de aprendizaje activo. Igual que un médico en formación practica en un entorno simulado antes de enfrentarse a pacientes reales, los profesionales de cualquier sector pueden empezar a familiarizarse con la lógica de los agentes en escenarios controlados. La barrera de entrada es cada vez más baja; ya no se necesita saber programar para construir un flujo funcional. Lo que sí se necesita es curiosidad, sentido crítico y la disposición a descubrir qué puede hacer un equipo invisible de agentes cuando se le da un objetivo claro y se le guía con los valores correctos.

Llegados a este punto, la Agentic AI deja de ser un concepto lejano para convertirse en una herramienta que cualquiera puede empezar a explorar. No hace falta ser ingeniero para crear un flujo que conecte fuentes de información, tome decisiones simples y ejecute acciones concretas. Basta con entender la lógica básica y tener la curiosidad de ver qué ocurre cuando se conectan las piezas.

Probar estas plataformas no es un ejercicio teórico: es la mejor manera de comprender sus alcances y sus límites. La experiencia directa revela matices que ningún artículo puede capturar por completo. Descubrirás que algunos flujos funcionan de forma impecable desde el primer intento, mientras que otros requieren ajustes finos; que hay agentes que parecen entender la tarea a la perfección y otros que se pierden en caminos inesperados. Y en ese proceso, aprenderás no solo sobre la tecnología, sino sobre tu propia forma de estructurar problemas y buscar soluciones.

Mi invitación es simple: dedica unas horas a “jugar” con un agente. Elige un objetivo concreto, aunque sea sencillo, y construye el flujo que lo haga posible. Observa cómo toma decisiones, revisa sus resultados y pregúntate qué cambiarías para mejorarlo. Hazlo como quien se sienta al piano por primera vez: sin expectativas de perfección, pero con la disposición de aprender algo nuevo en cada intento.

En un futuro no tan lejano, trabajar con agentes será tan natural como hoy lo es enviar un correo o coordinar una videollamada. Quienes se atrevan a dar el primer paso ahora tendrán una ventaja enorme: no solo sabrán usar la herramienta, sino que habrán desarrollado el criterio para decidir cuándo y cómo utilizarla. Y eso, más que la tecnología en sí, será lo que marque la diferencia.