Apple, Microsoft, Meta y Google han lanzado recientemente nuevos modelos de IA con menos “parámetros” pero aún con capacidades potentes, una medida que es parte de un esfuerzo de los grupos tecnológicos para alentar a las empresas con limitaciones financieras a usar IA.
Ilustración: FT
En general, cuanto mayor sea el número de parámetros, mejor será el rendimiento del software de IA y más complejas y matizadas serán sus tareas. Se estima que el último modelo GPT-4o de OpenAI y Gemini 1.5 Pro de Google, ambos anunciados esta semana, cuentan con más de un billón de parámetros. Mientras tanto, Meta está entrenando una versión de 400 mil millones de parámetros de su modelo Llama de código abierto.
Las preocupaciones sobre la responsabilidad por los datos y los derechos de autor también han llevado a grandes empresas tecnológicas como Meta y Google a lanzar pequeños modelos de lenguaje con solo unos pocos miles de millones de parámetros que son más baratos, energéticamente eficientes, personalizables, requieren menos energía para entrenarse y ejecutarse, y también pueden evitar que se almacenen datos confidenciales.
“Al obtener esa alta calidad a un menor costo, en realidad se obtienen más aplicaciones a las que los clientes pueden acceder”, dijo Eric Boyd, vicepresidente corporativo de Azure AI Platform de Microsoft, que vende modelos de IA a empresas.
Google, Meta, Microsoft y la startup francesa Mistral también han lanzado modelos de lenguaje pequeños, pero aún demuestran avances y pueden centrarse mejor en tareas específicas.
Nick Clegg, presidente de asuntos globales de Meta, afirmó que el nuevo modelo de Llama 3, con 8 mil millones de parámetros, es comparable a GPT-4. Microsoft afirmó que su pequeño modelo Phi-3, con 7 mil millones de parámetros, supera a GPT-3.5, la versión anterior del modelo de OpenAI.
Los microchips también pueden procesar tareas localmente en el dispositivo en lugar de enviar información a la nube, lo que podría resultar atractivo para clientes preocupados por la privacidad que desean garantizar que la información permanezca dentro de la red.
Charlotte Marshall, socia del bufete Addleshaw Goddard, afirmó que «uno de los desafíos que creo que muchos de nuestros clientes han enfrentado» al adoptar productos de IA generativa es el cumplimiento de los requisitos regulatorios en materia de procesamiento y transmisión de datos. Añadió que los modelos más pequeños ofrecen a las empresas la oportunidad de superar las preocupaciones regulatorias y de costos.
Los modelos más pequeños también permiten que las funciones de IA se ejecuten en dispositivos como teléfonos móviles. El modelo "Gemini Nano" de Google está integrado en los últimos teléfonos Pixel y el último smartphone S24 de Samsung.
Apple también ha revelado que está desarrollando modelos de IA para su iPhone más vendido. El mes pasado, el gigante de Silicon Valley lanzó OpenELM, un pequeño modelo diseñado para realizar tareas basadas en texto.
Boyd, de Microsoft, dijo que los modelos más pequeños darán lugar a "aplicaciones interesantes, desde teléfonos hasta computadoras portátiles".
El director de OpenAI, Sam Altman, declaró en noviembre que también ha estado ofreciendo modelos de IA de diferentes tamaños a los clientes "para distintos propósitos". "Hay algunas cosas que los modelos más pequeños harán muy bien. Estoy entusiasmado", afirmó.
Sin embargo, Altman agregó que OpenAI seguirá enfocándose en construir modelos de IA más grandes con escalabilidad, incluida la capacidad de razonar, planificar y ejecutar tareas y, en última instancia, lograr una inteligencia de nivel humano.
Hoang Hai (según el FT)
[anuncio_2]
Fuente: https://www.congluan.vn/cac-cong-ty-ai-dang-tim-kiem-loi-nhuan-lon-tu-cac-mo-hinh-ngon-ngu-nho-post296219.html
Kommentar (0)