Esa es la evaluación extraída de un memorando interno del gigante de las búsquedas, publicado recientemente. En este documento, los ejecutivos de Google expresaron su profunda preocupación por la posibilidad de perder la actual carrera de la IA.
Un representante de Google confirmó más tarde la autenticidad del documento, diciendo que era solo la opinión de una persona con información privilegiada de la empresa, pero admitió que "no estaban en posición de ganar esta carrera, y OpenAI tampoco".
El gigante de las búsquedas señala que la comunidad de código abierto está superando a las empresas líderes de IA, aunque sus productos tienen una ligera ventaja en calidad, "la brecha se está cerrando increíblemente rápido".
El tamaño del capital no es el factor central
La IA ha estado causando sensación entre el público desde finales de 2022 con el lanzamiento de ChatGPT, un chatbot basado en LLM (modelos de lenguaje de gran tamaño) desarrollado por OpenAI, una startup estrechamente asociada con Microsoft. El éxito de este producto ha impulsado a Google y a muchas otras empresas tecnológicas a sumarse a la carrera de los LLM.
Los modelos LLM se entrenan con billones de palabras de internet para generar textos o conversaciones con un sonido similar al humano. Este proceso lleva meses y cuesta decenas de millones de dólares, lo que genera la preocupación de que la IA esté dominada por empresas tecnológicas con grandes fortunas.
Pero el memorando interno de Google sugiere que esa suposición es errónea. Los investigadores de la comunidad de código abierto están aprovechando recursos gratuitos en línea y logrando resultados comparables a los de los modelos propietarios más grandes de la actualidad.
En consecuencia, los LLM se pueden “afinar” a través de una técnica llamada adaptación de bajo nivel, o LoRa, que permite optimizar un LLM existente para una tarea específica mucho más rápidamente y de forma más económica que entrenar un LLM desde cero.
Por ejemplo, en marzo, LLaMa, un modelo creado por Meta, la empresa matriz de Facebook, se filtró en línea. Aunque era pequeño y relativamente "primitivo", con solo 7 mil millones de parámetros, en comparación con los 540 mil millones de parámetros del LLM más grande de Google, LLaMa se perfeccionó rápidamente para producir resultados comparables a la versión original de ChatGPT en algunas tareas.
Esto podría tener implicaciones sísmicas para el futuro del desarrollo de la IA, ya que “las barreras para el entrenamiento y las pruebas van desde requerir un gran centro de investigación hasta requerir solo una persona, una noche y una computadora portátil de alta gama”.
La batalla entre el gigante Goliat y el pastor David
Ahora se puede perfeccionar un LLM por tan solo $100 en pocas horas. Con su modelo flexible, conectado y de bajo costo, la IA de código abierto ofrece ventajas significativas que grandes empresas como Google no pueden replicar. Por lo tanto, el memorando concluye que Google y OpenAI son vulnerables a estos competidores de código abierto.
"No creo que necesite algo tan potente como ChatGPT-4 para muchas tareas", declaró a NBC Simon Willison, programador y analista tecnológico. "La pregunta ahora es qué tan pequeños pueden ser los modelos y seguir siendo útiles. Y eso es algo que la comunidad de código abierto estáexplorando rápidamente".
Esto es completamente similar a la opinión de muchos expertos de que el punto más fuerte es también el punto más débil si se explota y se observa adecuadamente, como en la historia del gigante Goliat siendo derrotado por el pequeño pastor David con solo una honda.
Sin embargo, en lo que respecta al desarrollo de IA, no todos están de acuerdo con este argumento. Lo cierto es que aún existe software propietario de pago, como Adobe Photoshop o Microsoft Windows, y el campo de la IA podría seguir el mismo camino de desarrollo.
(Según The Economist, Yahoo Finance)
[anuncio_2]
Fuente
Kommentar (0)