Redacción: Inés Arroyo
Meta ha presentado su nueva versión de modelo lingüístico, Llama 4, con dos variantes destacadas: Llama 4 Scout y Llama 4 Maverick. Estos modelos son un avance significativo en la inteligencia artificial (IA), ya que son capaces de procesar texto, imágenes, audio y video, lo que los convierte en sistemas multimodales.
La principal novedad es que ambos modelos serán de código abierto. Esto significa que los desarrolladores podrán acceder al código, adaptarlo y contribuir al desarrollo del sistema, lo que fomenta la colaboración y la innovación en el ámbito de la IA.
Además, Meta está trabajando en una versión aún más avanzada llamada Llama 4 Behemoth, que se promete como uno de los modelos más inteligentes y potentes de la compañía. Esta nueva versión servirá como base para las futuras actualizaciones de Llama.
La competencia en inteligencia artificial se ha intensificado en los últimos años, especialmente con el éxito de modelos como ChatGPT de OpenAI. Ante esto, Meta planea una inversión significativa en su infraestructura de IA, con un presupuesto de hasta 65,000 millones de dólares para este año, buscando posicionarse como líder en el campo.
Aunque el desarrollo de Llama 4 no fue sencillo y sufrió algunos retrasos, Meta sigue confiando en su potencial. Inicialmente, el modelo no cumplió con las expectativas de la compañía en áreas como razonamiento y matemáticas, y también se identificaron limitaciones en la capacidad para mantener conversaciones de voz similares a las humanas.
Con el lanzamiento de Llama 4, Meta da un paso importante en la evolución de la inteligencia artificial multimodal. Esta tecnología no solo tiene el potencial de mejorar los productos y servicios de Meta, sino que también podría revolucionar la manera en que interactuamos con la tecnología en diversas áreas.
