![]() |
A diferencia de los TPU convencionales, el chip de computadora rojo es el primero en utilizar nanotubos de carbono (pequeñas estructuras cilíndricas hechas de átomos de carbono dispuestos en hexágonos) en lugar de materiales semiconductores tradicionales como el silicio. (Foto: Sankai) |
Los modelos de IA consumen muchos datos y requieren grandes cantidades de potencia informática para ejecutarse. Esto plantea un obstáculo importante para el entrenamiento y escalamiento de modelos de aprendizaje automático, especialmente a medida que aumenta la demanda de aplicaciones de IA. Es por esto que los científicos están trabajando para crear nuevos componentes, desde procesadores hasta memorias de computadora, que estén diseñados para consumir menos energía mientras ejecutan los cálculos necesarios.
Los científicos de Google crearon TPU en 2015 para resolver este desafío. Estos chips especializados actúan como aceleradores de hardware dedicados a operaciones tensoriales (cálculos matemáticos complejos utilizados para entrenar y ejecutar modelos de IA). Al trasladar estas tareas de la unidad central de procesamiento (CPU) y de la unidad de procesamiento de gráficos (GPU), las TPU permiten que los modelos de IA se entrenen de manera más rápida y eficiente.
Sin embargo, a diferencia de los TPU convencionales, este nuevo chip es el primero en utilizar nanotubos de carbono (pequeñas estructuras cilíndricas hechas de átomos de carbono dispuestos en un patrón hexagonal) en lugar de materiales semiconductores tradicionales como el silicio. Esta estructura permite que los electrones (partículas cargadas) fluyan a través de ellos con una resistencia mínima, lo que hace que los nanotubos de carbono sean excelentes conductores de electricidad.
Según los científicos chinos, su TPU consume sólo 295 microvatios (μW) de energía (donde 1 W es 1.000.000 μW) y puede proporcionar 1 billón de cálculos por vatio, una unidad de eficiencia energética. Esto hace que el TPU basado en carbono de China sea casi 1.700 veces más eficiente energéticamente que el chip de Google.
Desde ChatGPT hasta Sora, la inteligencia artificial está marcando el comienzo de una nueva revolución, pero la tecnología tradicional de semiconductores basada en silicio es cada vez más incapaz de satisfacer las demandas de procesamiento de cantidades masivas de datos. Hemos encontrado una solución a este desafío global, afirmó Zhiyong Zhang, coautor del artículo y profesor de electrónica en la Universidad de Pekín.
El nuevo TPU incluye 3.000 transistores de nanotubos de carbono y está construido utilizando una arquitectura de matriz sistólica: una red de procesadores dispuestos en una cuadrícula. Esto permite que las TPU realicen múltiples cálculos a la vez coordinando flujos de datos y garantizando que cada procesador realice una pequeña parte de la tarea al mismo tiempo.
Este procesamiento paralelo permite que los cálculos se realicen mucho más rápido, lo que es importante para los modelos de IA que procesan grandes cantidades de datos. También reduce la frecuencia con la que la memoria, específicamente un tipo llamado memoria de acceso aleatorio estática (SRAM), necesita leer y escribir datos, dijo Zhang. Al minimizar estas operaciones, la nueva TPU puede realizar cálculos más rápido y utilizar mucha menos energía.
En el futuro, una tecnología similar basada en nanotubos de carbono podría proporcionar una alternativa energéticamente más eficiente que los chips basados en silicio, dicen los investigadores. Dijeron que planean continuar ajustando el chip para mejorar el rendimiento y hacerlo más escalable, incluyendola exploración de formas de integrar TPU en el silicio de la CPU.
Kommentar (0)