Google, una subsidiaria de Alphabet Inc., reveló el 4 de abril nuevos detalles sobre las supercomputadoras que utiliza para entrenar sus propios modelos de inteligencia artificial (IA), enfatizando que estos sistemas son más rápidos y más eficientes energéticamente que los sistemas equivalentes de la empresa tecnológica rival Nvidia Corp.
Google ha desarrollado un circuito integrado específico para cada aplicación llamado Unidad de Procesamiento Tensorial (TPU). Se trata de la TPU de cuarta generación de la compañía. Google utiliza estos chips para más del 90 % del entrenamiento de su IA, el proceso de alimentar datos a través de modelos para que sean útiles en tareas como responder consultas de texto como humanos o generar imágenes.
En una revista científica publicada el mismo día, Google detalló cómo conectó más de 4.000 chips para formar una supercomputadora, utilizando interruptores ópticos desarrollados por él mismo para ayudar a conectar las computadoras entre sí.
Mejorar estas conexiones es clave en la competencia entre las empresas de supercomputadoras de IA, ya que los modelos convolucionales multilingües que impulsan tecnologías de vanguardia como Bard de Google o el chatbot ChatGPT de OpenAI son cada vez más grandes y no caben en un solo chip. En cambio, estos grandes modelos lingüísticos se almacenan en miles de chips y luego se agregan durante semanas o incluso más tiempo para entrenar modelos inteligentes de procesamiento de información.
PaLM de Google, el modelo multilingüe más completo hasta la fecha, se entrenó durante 50 días en dos supercomputadoras de 4.000 chips.
Google afirma que sus supercomputadoras agilizan y facilitan la reconfiguración de conexiones entre chips, evitando problemas y optimizando el rendimiento. Son 1,7 veces más rápidas y 1,9 veces más eficientes energéticamente que un sistema comparable de Nvidia Corp., desarrollado con el chip A100 y disponible simultáneamente con la cuarta generación de TPU.
Aunque los detalles de la supercomputadora recién se revelaron, el sistema de última generación está implementado en un centro de datos de Google desde 2020 en el condado de Mayes, Oklahoma, en EE. UU.
Google agregó que la startup Midjourney utilizó la supercomputadora de Google para entrenar su modelo, que genera nuevas imágenes basadas en solicitudes con unas pocas palabras en formato de texto.
VNA
[anuncio_2]
Fuente
Kommentar (0)