Con tanto dinero fluyendo hacia las nuevas empresas de IA, es un buen momento para convertirse en investigador de IA y probar sus ideas. Además, si su idea es lo suficientemente novedosa, puede ser más fácil obtener los recursos necesarios como una empresa independiente que dentro de un gran instituto de investigación.
Esa es la historia de Inception, una startup que desarrolla modelos de IA basados en difusión que acaba de recaudar 50 millones de dólares en financiación inicial. La ronda fue dirigida por Menlo Ventures con la participación de Mayfield, Innovation Endeavors, el fondo M12 de Microsoft, Snowflake Ventures, Databricks Investment y NVentures, el brazo de riesgo de Nvidia. Andrew Ng y Andrej Karpathy proporcionaron financiación ángel adicional.
El líder del proyecto es el profesor Stefano Armon de la Universidad de Stanford, cuya investigación se centra en modelos de difusión que generan resultados mediante un refinamiento iterativo en lugar de palabra por palabra. Estos modelos impulsan sistemas de inteligencia artificial basados en imágenes como Stable Diffusion, Midjourney y Sora. Ermon, que ha estado trabajando en estos sistemas desde antes de que despegara el auge de la IA, utiliza Inception para aplicar el mismo modelo a una gama más amplia de tareas.
Junto con la financiación, la empresa lanzó una nueva versión de su modelo Mercury diseñada para el desarrollo de software. Mercury ya está integrado en muchas herramientas de desarrollo, incluidas ProxyAI, Buildglare y Kilo Code. Lo más importante es que Ermon dijo que el enfoque de difusión ayuda al modelo de Inception a ahorrar en dos de las métricas más importantes: latencia (tiempo de respuesta) y costo computacional.
«Estos LLM basados en difusión son mucho más rápidos y eficientes que los que otros están creando hoy», dice Ermon. «Es un enfoque completamente diferente y aún queda mucha innovación por hacer».
Se requiere un poco de conocimiento previo para comprender las diferencias técnicas. Los modelos de difusión son estructuralmente diferentes de los modelos autorregresivos que dominan los servicios de IA basados en texto. Los modelos autorregresivos como GPT-5 y Gemini funcionan de forma secuencial y cada uno predice la siguiente palabra o fragmento de palabra en función de lo que se procesó previamente. Los modelos de difusión entrenados para la generación de imágenes adoptan un enfoque más holístico, cambiando gradualmente la estructura general de la respuesta hasta que coincida con el resultado deseado.
La sabiduría convencional es utilizar modelos autorregresivos para aplicaciones de texto, y ese enfoque ha tenido mucho éxito con las últimas generaciones de modelos de IA. Sin embargo, un creciente conjunto de investigaciones sugiere que los modelos de difusión pueden funcionar mejor cuando procesan grandes cantidades de texto o gestionan limitaciones de datos. Según Ermon, estas propiedades son una gran ventaja al realizar operaciones en bases de código grandes.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
El modelo generalizado también proporciona flexibilidad en la forma en que se utiliza el hardware, una ventaja que es especialmente importante a medida que las demandas de infraestructura de la IA se vuelven más claras. Mientras que los modelos autorregresivos requieren que las operaciones se realicen una tras otra, los modelos difusos pueden procesar muchas operaciones simultáneamente, lo que reduce significativamente la latencia de tareas complejas.
«Nuestro punto de referencia es de más de 1.000 tokens por segundo, lo que es mucho más alto de lo que es posible usando la tecnología autorregresiva existente, porque nuestro producto está diseñado para ser paralelo. Está diseñado para ser realmente rápido», afirma Ermon.
Source link
