Multiverse Computing, una startup de inteligencia artificial con sede en San Sebastián, ha recaudado 189 millones de euros (aproximadamente $ 217 millones) para abordar uno de los modelos de idiomas liderados (LLM), la compañía anunció el jueves
La ronda de financiación fue dirigida por Bullhound Capital e incluyó la participación de HP Inc., Forgepoint Capital y Toshiba. La compañía dice que el nuevo capital ayudará a expandir las tecnologías de compresión que pueden reducir la LLM.
Multiverse Computing introdujo recientemente una nueva herramienta de compresión llamada Compactifai, alegando que puede reducir las llamas para modelos de idiomas grandes (LLM) hasta el 95% sin comprometer el rendimiento. En realidad, eso significa que las empresas pueden reducir los costos relacionados con la IA hasta en un 80%.
Un año después del desarrollo y el despliegue piloto, la compañía está lista para ampliar con el apoyo de una nueva ronda de defensores internacionales y estratégicos.
Multiverse combina ideas de física cuántica y aprendizaje automático para lograr estos resultados, pero la tecnología no requiere computadoras cuánticas. Está construido para imitar cómo se comporta los sistemas cuánticos, pero se ejecuta en hardware clásico.
Esta última ronda ha convertido a multiverso en la startup AI más grande de España, uniéndose a las filas europeas de peso pesado de IA como Mistral, Aleph Alpha, Synthesia, Poolside y Oukin.
La compañía ya ha lanzado versiones comprimidas de los principales modelos de código abierto como Llama, Deepseek y Mistral, y planea agregar más pronto. El CEO Enrique Lizaso Olmos dice que se centrará en optimizar los modelos que las empresas ya están utilizando.
«Nos estamos centrando en comprimir el LLM de código abierto más utilizado, que es algo que las empresas ya usan», dijo Lizasoormos. «Cuando vas a las empresas, la mayoría de ellos usan la familia Lama modelo».
Las herramientas multiverso ya están disponibles en el mercado de inteligencia artificial de Amazon Web Services, lo que facilita que las empresas prueben e implementen sin modificar significativamente las pilas existentes.
Cómo reducir la hinchazón de LLMS para reducir los costos de IA
El multiverso de los problemas básicos que trata con: LLM es costoso de ejecutar. Por lo general, confían en infraestructuras de nube resistentes que impulsan las facturas de energía y limitan la adopción. Otros métodos de compresión, como la cuantización y la poda, intentan aliviar la carga, pero a menudo sacrifican el rendimiento en el proceso.
Compactifai toma una ruta diferente. Además de recortar el modelo, también repensa la estructura de las redes neuronales utilizando técnicas de inspiración cuántica conocidas como redes tensoras. Resultados: modelos más pequeños, más rápidos y más baratos que producen los mismos resultados. Según Multiverse, su modelo de compresión se ejecuta 4-12 veces más rápido, lo que reduce los costos de inferencia en un 50% a 80%.
Y no es solo un costo. Estos pequeños modelos son lo suficientemente livianos como para funcionar no solo en los centros de datos de la nube o empresarial, sino también en máquinas locales como computadoras portátiles, teléfonos inteligentes, vehículos, drones y tableros de frambuesa Pi.
«La sabiduría general es que sacrificaremos la reducción en los LLM. El multiverso está cambiando eso», dijo el CEO Enrique Lizaso Ormos. «Lo que comenzó como un avance de compresión modelo resultó ser rápido y transformador, ganando una rápida adopción debido a su capacidad para desbloquear nuevas eficiencias en las implementaciones de IA y reducir radicalmente los requisitos de hardware para ejecutar modelos de IA».
La ciencia detrás de Compactifai proviene del cofundador Román Orús, quien ayudó a ser pionero en el enfoque de la red tensor. «Por primera vez en la historia, podemos perfilar el funcionamiento interno de las redes neuronales, eliminando miles de millones de falsas correlaciones y optimizando verdaderamente todo tipo de modelos de IA», dijo Ors.
¿Comparta la historia?
Envíe sus historias a TechStartups.com frente a miles de fundadores, inversores, compañías de educación física, ejecutivos de tecnología, tomadores de decisiones y líderes tecnológicos.
Atraer la atención
Source link
