Apple, Microsoft, Meta y Google han lanzado recientemente nuevos modelos de IA con menos “parámetros” pero con capacidades igualmente potentes, una iniciativa de los grupos tecnológicos para animar a las empresas con limitaciones financieras a que sigan utilizando la IA.
Ilustración: FT
En general, a mayor número de parámetros, mejor es el rendimiento del software de IA y más complejas y sofisticadas son sus tareas. Se estima que el último modelo GPT-4o de OpenAI y Gemini 1.5 Pro de Google, ambos anunciados esta semana, cuentan con más de un billón de parámetros. Mientras tanto, Meta está entrenando una versión de 400 mil millones de parámetros de su modelo de código abierto Llama.
La preocupación por la responsabilidad en materia de datos y derechos de autor también ha llevado a grandes empresas tecnológicas como Meta y Google a lanzar pequeños modelos de lenguaje con solo unos pocos miles de millones de parámetros, que son más baratos, energéticamente eficientes, personalizables, requieren menos energía para entrenarse y ejecutarse, y también pueden evitar la captura de datos confidenciales.
“Al obtener esa alta calidad a un menor costo, en realidad se obtienen más aplicaciones a las que los clientes pueden acceder”, dijo Eric Boyd, vicepresidente corporativo de la plataforma de IA Azure de Microsoft, que vende modelos de IA a empresas.
Google, Meta, Microsoft y la startup francesa Mistral también han lanzado pequeños modelos de lenguaje, pero aún así demuestran progreso y pueden centrarse mejor en tareas específicas.
Nick Clegg, presidente de asuntos globales de Meta, afirmó que el nuevo modelo Llama 3, con 8 mil millones de parámetros, es comparable a GPT-4. Microsoft indicó que su modelo Phi-3, de menor tamaño y con 7 mil millones de parámetros, supera a GPT-3.5, la versión anterior del modelo de OpenAI.
Los microchips también pueden procesar tareas localmente en el dispositivo en lugar de enviar información a la nube, lo que podría resultar atractivo para los clientes preocupados por la privacidad que desean garantizar que la información permanezca dentro de la red.
Charlotte Marshall, socia del bufete de abogados Addleshaw Goddard, afirmó que «uno de los retos a los que se han enfrentado muchos de nuestros clientes» al adoptar productos de IA generativa es el cumplimiento de los requisitos legales relativos al procesamiento y la transmisión de datos. Añadió que los modelos más pequeños ofrecen «una oportunidad para que las empresas superen» las preocupaciones legales y de costes.
Los modelos más pequeños también permiten que las funciones de IA se ejecuten en dispositivos como teléfonos móviles. El modelo "Gemini Nano" de Google está integrado en los últimos teléfonos Pixel y en el último smartphone S24 de Samsung.
Apple también ha revelado que está desarrollando modelos de IA para su iPhone, el modelo más vendido. El mes pasado, el gigante de Silicon Valley lanzó OpenELM, un modelo pequeño diseñado para realizar tareas basadas en texto.
Boyd, de Microsoft, afirmó que los modelos más pequeños darán lugar a “aplicaciones interesantes, incluso en teléfonos y ordenadores portátiles”.
El director de OpenAI, Sam Altman, declaró en noviembre que también ofrecían modelos de IA de diferentes tamaños a clientes que «cumplen propósitos distintos». «Hay algunas cosas que los modelos más pequeños harán realmente bien. Estoy entusiasmado con eso», afirmó.
Sin embargo, Altman agregó que OpenAI seguirá centrándose en construir modelos de IA más grandes con escalabilidad, incluyendo la capacidad de razonar, planificar y ejecutar tareas y, en última instancia, alcanzar una inteligencia de nivel humano.
Hoang Hai (según el FT)
Fuente: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html






Kommentar (0)