Tecnologia Médica · · 6 min
Med-PaLM vs GPT-5.3: El peligro de la IA generalista en la salud
En medicina, 'casi correcto' es un error médico. Los modelos generalistas alucinan con las dosis. Los modelos especialistas salvan vidas.
Fabiano Brito
CEO & Founder
Un modelo que escribe poesía no es el mismo que debe sugerir diagnósticos. Usar un LLM generalista (como el GPT-5.3 estándar) en salud es peligroso.
Alerta Clínica
En pruebas controladas, los modelos generalistas inventaron citas médicas en el 18% de las respuestas. En la UCI, esto es inaceptable.
El Med-PaLM 2 de Google es diferente. Fue entrenado específicamente en:
| Criterio | GPT-5.3 (Generalista) | Med-PaLM 2 (Especialista) |
|---|---|---|
| USMLE (Examen Médico) | 88% (Aprobado) | 94% (Nivel Experto) |
| Alucinación | Moderada (Creativo) | Baja (Grounded) |
| Contexto | 200k Tokens | 2M Tokens (Historial Completo) |
La Nuance Clínica
Usamos Med-PaLM porque entiende el matiz (nuance). Sabe que un "dolor en el pecho" en un anciano diabético es un escenario de riesgo totalmente diferente a un "dolor en el pecho" en un joven atleta ansioso.
En salud, la especificidad salva vidas. La alucinación mata. Por eso nuestra elección arquitectónica es inegociable.
