Imagen de recurso: Una nueva IA analiza el habla para detectar el Alzheimer.
Un nuevo estudio científico demuestra que el análisis de la voz mediante inteligencia artificial puede identificar el Alzheimer de forma temprana, ofreciendo una alternativa rápida y no invasiva frente a las pruebas médicas tradicionales.
Por: A. Lagar | 16 de abril de 2026
La voz como ventana en la detección del Alzheimer
A medida que envejecemos, se producen cambios neurológicos y motores que influyen de forma natural en nuestra forma de hablar, provocando alteraciones como una menor fluidez, un aplanamiento en el tono o una articulación más lenta. En el caso de las personas con la enfermedad de Alzheimer (EA), estas sutiles alteraciones en el sonido, el ritmo y la pronunciación suelen aparecer mucho antes que los típicos síntomas de pérdida de memoria.
Hasta ahora, detectar la enfermedad de forma temprana dependía de métodos invasivos, costosos y estresantes para el paciente, como escáneres cerebrales, análisis de líquido cefalorraquídeo o pruebas cognitivas muy largas. Sin embargo, la comunidad científica ha encontrado en el habla un «biomarcador digital» muy potente, capaz de detectar cambios invisibles a simple vista.
¿Qué analiza exactamente esta inteligencia artificial?
La gran novedad de esta investigación es que los científicos han creado un sistema de aprendizaje automático (Machine Learning) que integra múltiples capas de información al mismo tiempo. Para lograrlo, la IA no se centra en el vocabulario que utiliza la persona, sino puramente en cómo emite el sonido de su voz analizando tres características principales:
- Acústicas: Evalúa la calidad del sonido y la inestabilidad en la fonación, es decir, fluctuaciones imperceptibles en la energía y emisión de la voz.
- Prosódicas: Analiza el ritmo, las variaciones en el tono (pitch), el volumen y los patrones de pausas o silencios que hace el paciente al pensar y hablar.
- Fonológicas: Estudia la complejidad al pronunciar sílabas y la forma en la que se articulan vocales y consonantes concretas en la boca.
Al combinar toda esta información de forma simultánea utilizando modelos predictivos complejos, la IA alcanzó una precisión sobresaliente en la detección de la enfermedad, logrando una puntuación F1-score de 0.89 (rozando la perfección estadística para este tipo de mediciones).
Validado hasta con los discursos de Ronald Reagan
Para asegurarse de que el modelo funcionaba en situaciones reales y no solo en un entorno clínico ideal, los investigadores sometieron a la IA a pruebas con grabaciones externas.
Una de las pruebas más llamativas consistió en analizar 40 audios de discursos públicos del expresidente estadounidense Ronald Reagan. El algoritmo comparó sus discursos de entre 1964 y 1980 (cuando estaba completamente sano) con los de 1988 a 1990, cuando se cree que empezaron a manifestarse los primeros signos de su deterioro. La inteligencia artificial logró identificar los marcadores de la enfermedad con éxito generalizando sus patrones de manera robusta, demostrando que puede funcionar incluso con ruidos de fondo o grabaciones de distintas épocas. También se comprobó su eficacia para diagnosticar estadios previos, como el Deterioro Cognitivo Leve, en pacientes de la Universidad de Delaware.
En pocas palabras
Imagina que en un futuro cercano, en lugar de tener que pasar por un hospital para someterte a escáneres cerebrales agobiantes o punciones dolorosas para saber si tú o un familiar estáis desarrollando Alzheimer, el médico solo te pida que hables por teléfono móvil durante unos minutos.
Lo que nos viene a decir esta investigación es que nuestra forma de hablar esconde pequeños «chivatos» (como una levísima inestabilidad en las cuerdas vocales, una consonante dental mal apoyada o silencios de milisegundos) que para nosotros son indetectables, pero que para una IA entrenada son señales de alerta. Es un avance revolucionario porque convierte un diagnóstico caro y complejo en una herramienta de prevención masiva, que mañana mismo podría integrarse en una app de nuestro teléfono móvil, dándonos un tiempo de oro vital para empezar tratamientos preventivos y proteger nuestro cerebro.
Citas: Zakaria Kurdi M (2026) Integrating acoustic, prosodic, and phonological features for automatic Alzheimer’s detection. Front. Aging Neurosci. 18:1786269. doi: 10.3389/fnagi.2026.1786269







