OpenAI está apostando fuerte por la IA de audio, pero no se trata solo de hacer que ChatGPT suene mejor. Según un nuevo informe de The Information, la compañía ha integrado múltiples equipos de ingeniería, productos e investigación durante los últimos dos meses para revisar su modelo de audio en preparación para los primeros dispositivos personales de audio que se espera que se lancen en aproximadamente un año.
La medida refleja hacia dónde se dirige toda la industria tecnológica: un futuro donde las pantallas son ruido de fondo y el audio ocupa un lugar central. Los parlantes inteligentes ya han instalado asistentes de voz en más de un tercio de los hogares estadounidenses. Meta ha anunciado una función para sus gafas inteligentes Ray-Ban que utiliza una matriz de cinco micrófonos para ayudarle a escuchar conversaciones en habitaciones ruidosas. Básicamente, esto convierte tu cara en un dispositivo de escucha direccional. Mientras tanto, Google comenzó a experimentar con Audio Overviews en junio para convertir los resultados de búsqueda en resúmenes de conversaciones, y Tesla está integrando el chatbot Grok de xAI en sus vehículos para crear un asistente de voz conversacional que maneja todo, desde la navegación hasta el control del clima a través de interacciones naturales.
No son sólo los gigantes tecnológicos los que hacen esta apuesta. Ha surgido una amplia variedad de nuevas empresas con las mismas creencias, aunque con distintos grados de éxito. Los creadores del Humane AI Pin acumularon cientos de millones de dólares en ventas antes de que los dispositivos portátiles sin pantalla hicieran sonar la alarma. El colgante Friend AI es un collar que pretende registrar su vida y brindar compañía, pero ha generado preocupaciones sobre la privacidad y el temor existencial en igual medida. Y ahora, al menos dos empresas, incluida una dirigida por el fundador de Sandbar y Pebble, Eric Migikowski, están desarrollando anillos de inteligencia artificial, que debutarán en 2026, que permitirán a los usuarios hablar literalmente con sus manos.
Los factores de forma pueden ser diferentes, pero el argumento es el mismo: el audio es la interfaz del futuro. Cada espacio se está convirtiendo en una superficie de control: tu casa, tu coche, incluso tu cara.
Según se informa, el nuevo modelo de audio de OpenAI, programado para principios de 2026, sonará más natural, manejará las interrupciones como un interlocutor real y le permitirá hablar durante una conversación, algo que los modelos actuales no pueden hacer. También se dice que la compañía está imaginando una familia de dispositivos que funcionarían más como compañeros que como herramientas, posiblemente incluyendo gafas y parlantes inteligentes sin pantalla.
Nada de esto es tan sorprendente. Como informa The Information, el ex jefe de diseño de Apple, Jony Ive, quien se unió a los esfuerzos de hardware de OpenAI después de que la compañía adquiriera su empresa io por 6.5 mil millones de dólares en mayo, ve el diseño de audio como una oportunidad para «corregir los errores» de los dispositivos de consumo del pasado, y ha hecho de la reducción de la adicción a los dispositivos una máxima prioridad.
Source link
