Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Los investigadores muestran que Copilot y Grok pueden explotarse como servidores proxy C2 de malware

Los veteranos de SpaceX recaudan 50 millones de dólares en la Serie A para el enlace del centro de datos

Ejecutar modelos de IA se está convirtiendo en un juego de memoria

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»Ejecutar modelos de IA se está convirtiendo en un juego de memoria
Startups

Ejecutar modelos de IA se está convirtiendo en un juego de memoria

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comfebrero 17, 2026No hay comentarios4 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Cuando se habla del costo de la infraestructura de IA, la atención suele centrarse en Nvidia y las GPU, pero la memoria se está convirtiendo en una parte cada vez más importante del panorama. Los precios de los chips DRAM se han multiplicado por siete en el último año a medida que los hiperescaladores se preparan para construir nuevos centros de datos por valor de miles de millones de dólares.

Al mismo tiempo, existe una mayor disciplina a la hora de coordinar toda la memoria para garantizar que los datos correctos lleguen al agente adecuado en el momento adecuado. Las empresas que dominen esto podrán realizar las mismas consultas con menos tokens, lo que podría marcar la diferencia entre cerrar y permanecer en el negocio.

El analista de semiconductores Doug O’Loughlin habla con el director de inteligencia artificial de Weka, Val Bercovitch, para conocer de manera interesante la importancia de los chips de memoria en su subpila. Ambos son expertos en semiconductores, por lo que se centran en los chips y no en arquitecturas más amplias. El impacto en el software de IA también es muy importante.

Me llamó especialmente la atención la discusión de Bercovici sobre la creciente complejidad de la documentación de caché rápida de Anthropic:

Puede averiguarlo visitando la página de precios de Prompt Cash de Anthropic. Comenzó como una página muy simple hace seis o siete meses, especialmente cuando se lanzó Claude Code. Simplemente dijeron: «Es más barato si usas efectivo». Ahora es una enciclopedia de consejos sobre exactamente cuántas escrituras de caché comprar por adelantado. Hay una ventana de 5 minutos o una ventana de 1 hora, que es muy común en toda la industria, y nada más. Ese es un anuncio realmente importante. Por supuesto, tiene todo tipo de oportunidades de arbitraje con respecto al precio de las lecturas de caché en función de la cantidad de escrituras de caché que haya comprado por adelantado.

La pregunta aquí es cuánto tiempo Claude mantiene el mensaje en la memoria caché. Puede pagar por un período de 5 minutos o incluso más por un período de 1 hora. Es mucho más económico utilizar datos que todavía están en caché, por lo que si administra sus datos correctamente, puede ahorrar mucho dinero. Sin embargo, hay un problema. Cada vez que agrega nuevos datos a su consulta, es posible que se elimine algo más de la ventana de caché.

Esto es complejo, pero la conclusión es muy sencilla. La gestión de la memoria para los modelos de IA será una gran parte del futuro de la IA. Las empresas que lo hagan bien llegarán a la cima.

Y se están logrando muchos avances en este nuevo campo. En octubre, cubrí una startup llamada TensorMesh que estaba trabajando en una capa de la pila conocida como optimización de caché.

evento de crisis tecnológica

bostón, massachusetts
|
23 de junio de 2026

También existen oportunidades en otras partes de la pila. Por ejemplo, más abajo en la pila se encuentra cómo los centros de datos utilizan los diferentes tipos de memoria que tienen. (La entrevista incluye una buena discusión sobre cuándo se usan chips DRAM en lugar de HBM, pero está bastante profunda en los problemas de hardware). Más arriba en la pila, los usuarios finales están descubriendo cómo configurar sus conjuntos de modelos para aprovechar el caché compartido.

A medida que las empresas mejoran la orquestación de su memoria, utilizan menos tokens y el costo de la inferencia se vuelve más barato. Por otro lado, el modelo se está volviendo más eficiente en el procesamiento de cada token, lo que reduce aún más el costo. A medida que el coste de los servidores vaya disminuyendo, muchas aplicaciones que actualmente parecen inviables poco a poco empezarán a volverse rentables.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleLa puerta trasera del firmware de Keenadu infecta tabletas Android mediante una actualización OTA firmada
Next Article Los veteranos de SpaceX recaudan 50 millones de dólares en la Serie A para el enlace del centro de datos
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Los veteranos de SpaceX recaudan 50 millones de dólares en la Serie A para el enlace del centro de datos

febrero 17, 2026

Aquí hay 17 empresas de inteligencia artificial con sede en EE. UU. que recaudaron 100 millones de dólares o más en 2026.

febrero 17, 2026

La startup india de codificación de vibe Emergent anuncia más de 100 millones de dólares en ARR en solo 8 meses

febrero 17, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Los investigadores muestran que Copilot y Grok pueden explotarse como servidores proxy C2 de malware

Los veteranos de SpaceX recaudan 50 millones de dólares en la Serie A para el enlace del centro de datos

Ejecutar modelos de IA se está convirtiendo en un juego de memoria

La puerta trasera del firmware de Keenadu infecta tabletas Android mediante una actualización OTA firmada

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.