Mistral AI, rival de OpenAI con sede en París, ha cerrado su ronda de financiación de 415 millones de dólares

Mistral AI, rival de OpenAI con sede en París, ha cerrado su ronda de financiación de 415 millones de dólares
Publicidad
Comparte esto en:

Como recordatorio, Mistral AI recaudó una ronda inicial de 112 millones de dólares hace menos de seis meses para crear un rival europeo de OpenAI. Cofundada por los ex alumnos de Google DeepMind y Meta, Mistral AI está trabajando en modelos fundamentales con un ángulo de tecnología abierta.

Publicidad

Andreessen Horowitz (a16z) lidera la última ronda de financiación con Lightspeed Venture Partners invirtiendo una vez más en la empresa de inteligencia artificial. Eso no es todo, ya que en la ronda también participan una larga lista de inversores, entre los que se encuentran Salesforce, BNP Paribas, CMA-CGM, General Catalyst, Elad Gil y Conviction.

«Desde la creación de Mistral AI en mayo, hemos seguido una trayectoria clara: crear un campeón europeo con vocación global en inteligencia artificial generativa, basado en un enfoque tecnológico abierto, responsable y descentralizado», dijo el cofundador de Mistral AI. y el director ejecutivo Arthur Mensch en un comunicado.

Publicidad

En septiembre, Mistral AI lanzó su primer modelo llamado Mistral 7B. Este gran modelo de lenguaje no pretende competir directamente con GPT-4 o Claude 2, ya que fue entrenado en un conjunto de datos «pequeño» de alrededor de 7 mil millones de parámetros.

En lugar de abrir el acceso al modelo Mistral 7B a través de API, la compañía lo puso a disposición para su descarga gratuita para que los desarrolladores pudieran ejecutarlo en sus dispositivos y servidores.

La plantilla fue lanzada bajo la licencia Apache 2.0, una licencia de código abierto que no tiene restricciones de uso o reproducción más que la atribución. Si bien cualquier persona puede ejecutar el modelo, se desarrolló a puerta cerrada con un conjunto de datos patentado y pesos no revelados.

Mistral AI también jugó un papel importante en la configuración de los debates sobre la Ley de IA de la UE. La startup francesa de IA ha estado presionando para obtener una exención total para los modelos fundamentales, diciendo que la regulación debería aplicarse a casos de uso y empresas que trabajan en productos que son utilizados directamente por los usuarios finales.

Los legisladores de la UE llegaron a un acuerdo político hace apenas unos días. Las empresas que trabajan en modelos fundamentales enfrentarán algunos requisitos de transparencia y tendrán que compartir documentación técnica y resúmenes de lo que hay en los conjuntos de datos.

Ahora solo se puede acceder al mejor modelo de Mistral AI a través de una API

La empresa todavía planea ganar dinero con sus modelos fundamentales. Es por eso que Mistral AI abre hoy su plataforma de desarrollador en versión beta. Con esta plataforma, otras empresas podrán pagar por utilizar los modelos de IA de Mistral a través de API.

Además del modelo Mistral 7B (“Mistral-tiny”), los desarrolladores podrán acceder al nuevo modelo Mixtral 8x7B (“Mistral-pequeño”). Este modelo utiliza “una red de enrutadores” para procesar tokens de entrada y elegir el grupo de parámetros más adecuado para dar una respuesta.

“Esta técnica aumenta la cantidad de parámetros en un modelo al tiempo que controla el costo y la latencia, ya que el modelo utiliza solo una fracción del conjunto total de parámetros por token. Concretamente, Mixtral tiene un total de 45 mil millones de parámetros, pero solo usa 12 mil millones de parámetros por token. Por lo tanto, procesa entradas y genera salidas a la misma velocidad y por el mismo costo que un modelo 12B”, escribió la compañía en una publicación de blog.

Publicidad

Mixtral 8x7B también se lanzó bajo la licencia Apache 2.0 y está disponible como una descarga gratuita. Un tercer modelo, Mistral-medium, está disponible en la plataforma de desarrollo Mistral. Supuestamente funciona mejor que otros modelos de Mistral AI y solo está disponible a través de la plataforma API paga; no hay enlace de descarga disponible.


Comparte esto en:

Publicaciones Similares

Deja un comentario