Durante el “Apagón” que vivimos en España el 28 de abril de 2025 tuve un familiar desconectado de su oxígeno habitual por falta de energía. Afortunadamente el teléfono funcionó después de algunas llamadas y los servicios de emergencia no tardaron en llegar. En ese momento, pensé en la cantidad de enfermos más graves cuyos dispositivos estaban desconectados.
No es habitual tener un país desconectado, tampoco sufrir una emergencia nacional de cualquier otro tipo, pero si sucediera, los agentes de Inteligencia Artificial de Hippocraticai.com, podrían ponerse en contacto con todos los pacientes para ver cuáles necesitarían ayuda con más urgencia.

Pero empecemos por entender qué es un agente de Inteligencia artificial. Un agente es un sistema autónomo, es decir, que puede funcionar sólo, razonar, tomar decisiones y actuar en tu nombre. Impulsado por un modelo de lenguaje y a partir de determinadas instrucciones para las que ha sido programado, puede, entre otras cosas, planificar, usar herramientas, ejecutar pasos y actuar para alcanzar unos objetivos concretos. Realmente, el poder de un agente reside en combinar inteligencia y acción de manera autónoma.
Un agente de IA puede interactuar con el usuario y también ejecutar múltiples acciones, como por ejemplo navegar por una web, escribir código, manipular archivos, atender a un cliente, identificar leads, personalizar mensajes, usar herramientas de CRM… Para ello, se integra con distintos sistemas y procesos. Puede conectarse con herramientas, llamar a APIs, buscar información o incluso iniciar flujos de trabajo.
En el caso de Hippocratic AI, los agentes están programados para atender a pacientes, es decir, para actuar como enfermeros o enfermeras, ofreciendo o recibiendo información. Se les ha entrenado para ello. Estos agentes pueden llamar a los pacientes para preguntar si han tomado la medicación, cómo se encuentran después de una intervención quirúrgica, cuándo pueden asistir a una consulta médica. Incluso les resuelven dudas sobre nutrición, medicación, etc. Todos esos datos son utilizados para gestionar mejor la historia del paciente e informar a su médico.
La visión de Munjal Shah, fundador de esta startup en febrero de 2023, fue la de ayudar a crear abundancia en el ámbito sanitario y aportar soluciones a la creciente escasez de profesionales de la salud en todo el mundo.Su estimación es que en Estados Unidos faltan alrededor de 15 millones de profesionales. Y parece que el mercado ha comprado esa forma de atención a los pacientes, porque en noviembre de 2025 levantó una Ronda C de inversión de 140M$.
Pude ver al CEO de Hippocratic AI en Singapur, cuando explicaba en el Congreso SuperAI el funcionamiento de su plataforma Polaris y de los 1000 agentes. En esta página de su web puedes escuchar a los agentes de Hippocratic AI. Estos agentes tienen conocimientos y capacidades increíbles, de seguridad, clínicas, emocionales, pediátricas, farmacéuticas, de nutrición…. Incluso pueden recordar lo que hablaron contigo y son increíblemente pacientes, tanto, que seguro acabas tú harto de ellos antes que ellos de ti.
Hippocratic AI trabaja principalmente con hospitales y aseguradoras de Estados Unidos, pero ya se han extendido a Singapur y a Arabia. En Europa tiene complicado entrar por la Ley de Inteligencia Artificial de la Unión Europea, porque sus agentes se considerarían de alto riesgo. De hecho, creo que hay varias preguntas por resolver, como la «certeza» o absoluta fiabilidad en la información que dan estos agentes. Además, ¿Está segura toda la información que los agentes hablan con los pacientes? ¿De quién es la información personal y los datos anonimizados? ¿Del paciente, de las aseguradoras, hospitales o de Hippocratic AI?
Eso, por no abrir otro debate más profundo sobre si tendrán que cuidarnos agentes en lugar de personas.
¿Estarías dispuesto a hablar con agentes de IA para temas de salud? Yo la verdad es que en muchos casos sí.
Suscríbete a mi blog