Hace tres años, el cofundador de Luminal, Joe Fioti, trabajaba en el diseño de chips en Intel. Estaba trabajando para crear el mejor chip posible, pero el cuello de botella más importante estaba en el software.
«Se puede crear el mejor hardware del planeta, pero si a los desarrolladores les resulta difícil utilizarlo, no lo utilizarán», me dijo.
Ahora ha fundado una empresa centrada exclusivamente en ese problema. El lunes, Luminal anunció 5,3 millones de dólares en financiación inicial en una ronda liderada por Felicis Ventures con inversiones ángeles de Paul Graham, Guillermo Rauch y Ben Porterfield.
Los cofundadores de Fioti, Jake Stevens y Matthew Gunton, provienen de Apple y Amazon, respectivamente, y la compañía fue parte del lote de verano de 2025 de Y Combinator.
El negocio principal de Luminal es simple. La empresa vende informática, similar a empresas de neo-nube como CoreWeave y Lambda Labs. Pero mientras esas empresas se centran en las GPU, Luminal se centra en técnicas de optimización que pueden extraer más computación de su infraestructura. En particular, la empresa se centra en optimizar el compilador, que se encuentra entre el código escrito y el hardware de la GPU. Este es el mismo sistema de desarrollador que le causó muchos dolores de cabeza a Fioti en su trabajo anterior.
Actualmente, el compilador líder en la industria es el sistema CUDA de Nvidia. Este es un elemento subestimado en el fenomenal éxito de la empresa. Pero muchos elementos de CUDA son de código abierto, y aunque gran parte de la industria todavía está luchando por conseguir GPU, Luminal apuesta a que se puede ganar mucho valor al desarrollar el resto de la pila.
Es parte de un número creciente de nuevas empresas de optimización de inferencias que están ganando valor a medida que las empresas buscan formas de ejecutar modelos más rápido y más barato. Los proveedores de inferencia como BaseTen y Together AI se han especializado en optimización durante años, pero ahora están surgiendo empresas más pequeñas como Tensormesh y Clarifai que se centran en trucos técnicos más específicos.
Luminal y otros miembros de la cohorte se enfrentarán a una dura competencia por parte de equipos de optimización de laboratorios líderes que tienen la ventaja de optimizar frente a una única familia de modelos. Luminal, al trabajar para clientes, debe adaptarse a cualquier modelo que surja. Pero Fioti dice que a pesar del riesgo de ser superado por los hiperescaladores, no está preocupado porque el mercado está creciendo lo suficientemente rápido.
«Siempre puedes pasar seis meses ajustando manualmente la arquitectura de un modelo en una pieza particular de hardware, y probablemente puedas superar el rendimiento de cualquier tipo de compilador», dice Fioti. «Pero nuestra gran apuesta es que, aparte de eso, los casos de uso multipropósito siguen siendo muy valiosos económicamente».
Source link
