El consumo energético de la IA requiere rediseñar el hardware informático rompiendo el «muro de la memoria», tal y como plantea un estudio de la Universidad de Purdue y el Instituto de Tecnología de Georgia.
Por: A. Lagar | Fecha: 21 de enero de 2026
El avance de la tecnología es imparable, pero tiene un coste oculto: la electricidad. Los modelos de procesamiento de lenguaje, como los que impulsan los chatbots actuales, se han multiplicado por 5.000 en tamaño en los últimos cuatro años. Esta expansión plantea un desafío crítico: el hardware actual no está preparado para soportar tal demanda sin disparar el consumo energético de la IA. Ante este escenario, investigadores de la Universidad de Purdue y del Instituto de Tecnología de Georgia han vuelto la mirada hacia la máquina más eficiente que existe: el cerebro humano.
En un estudio publicado recientemente en Frontiers in Science, los expertos describen cómo la arquitectura informática tradicional se ha topado con un límite físico conocido como el «muro de la memoria». Las computadoras convencionales, basadas en la arquitectura de von Neumann, separan el procesamiento de los datos del almacenamiento. Este diseño obliga a un intercambio constante de información entre el chip y la memoria, un viaje de ida y vuelta que es responsable de la mayoría de los retrasos y del gasto energético.
Inspiración biológica: procesar donde se almacena
La solución propuesta por el equipo liderado por Kaushik Roy implica un cambio de paradigma: integrar la capacidad de cómputo dentro o junto a la propia memoria, tal y como hacen nuestras neuronas.
En el cerebro, cuando una neurona recibe señales, genera una carga eléctrica (potencial de membrana) y solo «dispara» información si supera un cierto umbral. Es decir, procesa y almacena en el mismo lugar y solo gasta energía cuando es estrictamente necesario. Inspirándose en este mecanismo, han surgido los algoritmos de redes neuronales de picos (SNN).
A diferencia de la inteligencia artificial tradicional, que requiere un flujo de datos constante y masivo, las SNN responden a eventos «dispersos». Solo se activan cuando ocurre algo relevante. «Queremos recrear los eficientes mecanismos de procesamiento del cerebro para llevar la IA al siguiente nivel», explica Adarsh Kosta, coautor del estudio.
Drones que «ven» como insectos
Este enfoque tiene aplicaciones prácticas inmediatas en la llamada «IA sobre la marcha» (Edge AI). El estudio pone como ejemplo un dron autónomo en una misión de rescate. Depender de la nube para procesar imágenes en tiempo real genera latencia y consume demasiada batería.
La clave reside en combinar estos nuevos algoritmos con cámaras basadas en eventos. A diferencia de una cámara normal que graba 30 o 60 cuadros por segundo aunque nada se mueva, estos sensores bioinspirados solo envían datos cuando detectan un cambio en los píxeles (movimiento). Al procesar solo lo esencial, se reduce drásticamente el consumo energético de la IA, permitiendo que dispositivos pequeños y autónomos operen durante más tiempo y con mayor precisión.
El hardware del futuro: Computación en Memoria (CIM)
Para que estos algoritmos funcionen, el silicio debe evolucionar. Los investigadores apuestan por sistemas de Computación en Memoria (CIM), que realizan los cálculos en el mismo lugar donde residen los datos.
Existen dos vías para lograrlo:
- Métodos analógicos: Usan corrientes eléctricas a través de las celdas de memoria para calcular. Son extremadamente eficientes.
- Métodos digitales: Utilizan la lógica clásica de ceros y unos integrada en la matriz de memoria. Son más precisos, pero consumen más.
El estudio concluye que no hay una «bala de plata» o solución única. El futuro pasa por el «codiseño», es decir, crear hardware y software simultáneamente para que se adapten como un guante a cada tarea específica. «Es la única manera de superar el límite de la memoria y ofrecer una tecnología rápida, ligera y de bajo consumo», sentencia Roy.
Fuente: Estudio publicado en Frontiers in Science.