![]() |
A diferencia del TPU convencional, el chip rojo es el primero en utilizar nanotubos de carbono (diminutas estructuras cilíndricas compuestas por átomos de carbono dispuestos en hexágonos) en lugar de materiales semiconductores tradicionales como el silicio. (Foto: Sankai) |
Los modelos de IA utilizan una gran cantidad de datos y requieren una gran capacidad de procesamiento para su funcionamiento. Esto supone un obstáculo importante para el entrenamiento y el escalado de modelos de aprendizaje automático, especialmente a medida que aumenta la demanda de aplicaciones de IA. Por ello, los científicos trabajan en la creación de nuevos componentes, desde procesadores hasta memorias de computadora, diseñados para consumir menos energía al ejecutar los cálculos necesarios.
Los científicos de Google crearon las TPU en 2015 para abordar este desafío. Estos chips especializados actúan como aceleradores de hardware dedicados a las operaciones tensoriales (los complejos cálculos matemáticos utilizados para entrenar y ejecutar modelos de IA). Al delegar estas tareas a la unidad central de procesamiento (CPU) y la unidad de procesamiento gráfico (GPU), las TPU permiten entrenar los modelos de IA de forma más rápida y eficiente.
Sin embargo, a diferencia de los TPU convencionales, el nuevo chip es el primero en utilizar nanotubos de carbono: diminutas estructuras cilíndricas compuestas de átomos de carbono dispuestos en un patrón hexagonal, en lugar de materiales semiconductores tradicionales como el silicio. Esta estructura permite que los electrones (partículas cargadas) fluyan a través de ellas con mínima resistencia, lo que convierte a los nanotubos de carbono en excelentes conductores de electricidad.
Según los científicos chinos, su TPU consume solo 295 microvatios (μW) de energía (donde 1 W equivale a 1 000 000 μW) y puede generar un billón de cálculos por vatio, una unidad de eficiencia energética. Esto hace que el TPU chino, basado en carbono, sea casi 1700 veces más eficiente energéticamente que el chip de Google.
Desde ChatGPT hasta Sora, la inteligencia artificial está marcando el comienzo de una nueva revolución, pero la tecnología tradicional de semiconductores basada en silicio es cada vez más incapaz de satisfacer las demandas de procesamiento de cantidades masivas de datos. Hemos encontrado una solución a este desafío global, afirmó Zhiyong Zhang, coautor del artículo y profesor de electrónica en la Universidad de Pekín.
La nueva TPU incluye 3000 transistores de nanotubos de carbono y está construida con una arquitectura de matriz sistólica: una red de procesadores dispuestos en cuadrícula. Esto permite a la TPU realizar múltiples cálculos simultáneamente, coordinando el flujo de datos y garantizando que cada procesador realice una pequeña parte de la tarea a la vez.
Este procesamiento paralelo permite realizar cálculos con mayor rapidez, lo cual es importante para los modelos de IA que procesan grandes cantidades de datos. También reduce la frecuencia con la que la memoria —en concreto, la memoria estática de acceso aleatorio (SRAM)— necesita leer y escribir datos, afirmó Zhang. Al minimizar estas operaciones, la nueva TPU puede realizar cálculos con mayor rapidez y con un consumo de energía mucho menor.
En el futuro, según los investigadores, una tecnología similar basada en nanotubos de carbono podría ofrecer una alternativa energéticamente más eficiente a los chips de silicio. Afirman que planean seguir perfeccionando el chip para mejorar su rendimiento y escalabilidad, incluyendola exploración de formas de integrar TPU en las CPU de silicio.
Kommentar (0)