OpenAI con Meta

Meta y OpenAI lanzan nuevos modelos de IA

Meta presenta su más reciente creación en inteligencia artificial: Llama 3, un modelo de lenguaje de código abierto. Simultáneamente, OpenAI introduce GPT-4 Turbo con Vision, una versión mejorada ya accesible para desarrolladores.

Qué novedades incorporan GPT-4 Turbo y Llama 3

Bill Gates comparte sus perspectivas sobre los empleos que permanecerán relevantes en la era de la IA. Por otro lado, Elon Musk plantea su preocupación sobre el potencial de la IA para superar la inteligencia humana en un plazo corto, generando inquietud.

OpenAI y Meta
OpenAI y Meta

OpenAI y Meta, dos gigantes de la tecnología, están preparando el terreno para una nueva era de inteligencia artificial (IA). Ambas empresas han anunciado oficialmente sus próximos modelos de IA, cada uno con sus propias innovaciones y mejoras.

Meta ha revelado que su próximo modelo de lenguaje de IA de código abierto, Llama 3, será lanzado el próximo mes. Este modelo promete potenciar una variedad de asistentes de IA generativa en todo el ecosistema de la empresa, lo que podría revolucionar la forma en que interactuamos con la tecnología.

Por otro lado, OpenAI ha presentado su modelo mejorado GPT-4 Turbo con Vision, que ya está disponible para los desarrolladores a través de su API. Este modelo tiene la capacidad de analizar imágenes y responder preguntas sobre ellas, lo que podría abrir nuevas posibilidades en el campo de la IA.

OpenAI lanza al mercado GPT-4 Turbo, ¡ya puedes adquirirlo!

La versión mejorada de IA, GPT-4 Turbo, ahora cuenta con una ventana de contexto expandida, aumentando de 32K a 128k, lo que equivale a más de 300 páginas de texto en un solo mensaje. En la plataforma social X (anteriormente conocida como Twitter), OpenAI anuncia la disponibilidad de GPT-4 Turbo para desarrolladores a través de su API, incluyendo capacidades de Visión.

GPT-4 Turbo con Visión es un modelo multimodal de gran escala (LMM) capaz de analizar imágenes, responder preguntas generales sobre el contenido de las fotografías, generar ideas e incluso comprender los elementos presentes en las imágenes para proporcionar información relevante.

Además, los desarrolladores pueden disfrutar de un flujo de trabajo mejorado y crear aplicaciones de manera más eficiente utilizando este modelo.

Meta anuncia el lanzamiento oficial de Llama 3 para mayo de 2024

Durante el Meta AI Day, la empresa dirigida por Mark Zuckerberg planea desplegar una serie de modelos básicos de nueva generación con diversas capacidades y versiones a lo largo del año. Con Llama 3, Meta busca superar las limitaciones de su predecesor mientras introduce nuevas funcionalidades. Este modelo contará con más de 140.000 millones de parámetros, lo que mejorará su capacidad de razonamiento para ofrecer respuestas más precisas.

La compañía no especificó si Llama 3 seguirá siendo de código abierto, una cualidad que ha caracterizado a sus modelos anteriores. No obstante, durante una entrevista con The Verge, Mark Zuckerberg reafirmó el compromiso de la empresa con las licencias de código abierto y su importancia en la democratización de la inteligencia artificial.

Llama 3: Impulso Estratégico de Meta en la Competencia de Inteligencia Artificial

Gracias a los progresos en investigación y desarrollo, Llama 3 podría surgir como una opción sólida en comparación con los modelos de OpenAI y Google. Mark Zuckerberg expresó: ‘Con Llama 3, nuestra meta es crear innovaciones que estén a la vanguardia y, eventualmente, se conviertan en los modelos líderes de la industria’. La incógnita pendiente es si la empresa elegirá un modelo multimodal, con capacidad para procesar texto, imágenes, audio y video.

Hasta el momento, la empresa dispone de varios modelos de código abierto disponibles para los desarrolladores. Entre ellos se encuentra Code Llama 70B, un LLM diseñado específicamente para la programación y que consta de 70.000 millones de parámetros. Según las evaluaciones de HumanEval, Llama 70B logra superar a GPT-4 por un pequeño margen.

Publicaciones Similares

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *