En un momento en que la inteligencia artificial avanza a gran velocidad pero se enfrenta a ciertos límites —como la escasez de nuevos datos para entrenar modelos—, la innovación en hardware se vuelve clave para seguir escalando.
Ahora, un grupo de investigadores en Arabia Saudí y Singapur ha dado un paso prometedor: han conseguido que transistores se comporten como neuronas humanas, un avance que podría mejorar significativamente el rendimiento y la eficiencia del hardware para inteligencia artificial.

🧠 ¿Por qué esto es importante?
Entrenar un modelo de IA, especialmente los modelos de lenguaje a gran escala (LLM) con millones o incluso miles de millones de parámetros, requiere una enorme potencia de procesamiento. Esto normalmente implica el uso de miles de GPUs de gama alta, como las de NVIDIA, con grandes cantidades de memoria.
Aunque el hardware actual es potente, también es costoso, consume mucha energía y no siempre escala de forma eficiente. Tanto es así que empresas como Microsoft ya contemplan el uso de energía nuclear para alimentar sus centros de datos dedicados a IA.
🔋 El desafío del consumo energético
Para continuar avanzando en IA sin disparar el consumo eléctrico, se necesita hardware más eficiente. Ahí entran los aceleradores neuromórficos, chips diseñados para imitar el funcionamiento del cerebro humano y reducir el coste energético del procesamiento.
Inspirados por este enfoque, los investigadores lograron que dos transistores se comporten como una neurona artificial, una solución que abre la puerta a chips más compactos, eficientes y escalables.
⚙️ ¿Cómo funciona esta «neurona artificial»?
El avance se basa en operar un transistor en modo «punch-through», lo que permite controlar la carga a través del voltaje de entrada:
- Ajustando el voltaje de puerta, el transistor puede permanecer inactivo o generar picos de actividad, imitando el comportamiento neuronal.
- Estos picos varían según las entradas, simulando diferentes respuestas sinápticas.
Con un solo transistor el sistema ya era funcional, pero al añadir un segundo transistor, lograron una estabilidad sostenida durante 10 millones de ciclos de reloj, un dato clave para su aplicación práctica.
🧩 ¿Qué ventajas tiene este enfoque?
- Solo se requieren dos transistores por «neurona», frente a los millones presentes en los chips actuales.
- Se puede fabricar usando tecnología CMOS estándar, lo que facilita su producción.
- Podrían reemplazar componentes como la RAM estática (SRAM), que hoy necesita al menos 6 transistores por celda de memoria, reduciendo área y coste por bit.
- Sería posible crear redes neuronales completas directamente en hardware, con un nivel de eficiencia sin precedentes.
⚠️ ¿Y las limitaciones?
Aunque prometedor, el sistema aún enfrenta algunos retos:
- 10 millones de ciclos de reloj puede parecer mucho, pero en comparación con el hardware actual es una cifra limitada.
- A largo plazo, podrían producirse errores o pérdida de estabilidad, lo que pone en duda su fiabilidad en entornos de producción exigentes.
🔮 ¿El futuro de la IA pasa por chips neuromórficos?
Este tipo de avances nos muestra un camino claro: para seguir haciendo más inteligente la IA, no basta con mejores algoritmos. El hardware sobre el que se ejecutan esos modelos tiene que evolucionar también.
Con transistores que funcionan como neuronas, se abren posibilidades para construir IA más rápida, eficiente y asequible. Y aunque aún estamos en fases iniciales, esta línea de investigación podría cambiar la forma en que diseñamos y entrenamos modelos en el futuro cercano.