El comercial de Anthropic para el Super Bowl, uno de los cuatro anuncios lanzados por AI Labs el miércoles, comienza con la palabra «TRAICIÓN» escrita audazmente en la pantalla. La cámara cambia hacia un hombre que busca ansiosamente consejo de un chatbot (obviamente destinado a representar ChatGPT) sobre cómo hablar con su madre.
Este robot, interpretado por una mujer rubia, ofrece algunos consejos clásicos. Empecemos escuchando. ¡Probemos un paseo por la naturaleza! Luego se convierte en un anuncio de un sitio ficticio (¡espero!) de citas de pumas llamado Golden Encounters. Anthropic concluyó el anuncio diciendo que la IA recibirá anuncios, pero su propio chatbot, Claude, no.
Otro comercial presenta a un joven pequeño que busca consejos sobre cómo desarrollar abdominales. Después de ingresar su altura, edad y peso, el robot le ofrecerá un anuncio de plantillas para aumentar la altura.
El comercial de Anthropic se dirige inteligentemente a los usuarios de OpenAI luego del reciente anuncio de la compañía de que se agregarán anuncios al nivel gratuito de ChatGPT. Y causaron un revuelo inmediato, con titulares sobre Anthropic “burlándose”, “ensartando” y “mojando” OpenAI.
Son tan divertidos que incluso Sam Altman admitió haberse reído de ellos en X. Pero claramente no los encontró realmente divertidos. Lo inspiraron a escribir una diatriba del tamaño de una novela corta que llegaba hasta llamar a sus rivales «deshonestos» y «autoritarios».
En esa publicación, Altman explica que el nivel con publicidad está destinado a soportar la carga de proporcionar ChatGPT gratuito a muchos de sus millones de usuarios. ChatGPT sigue siendo el chatbot más popular por un amplio margen.
Sin embargo, el CEO de OpenAI afirmó que los anuncios, que implicaban que ChatGPT distorsionaría las conversaciones e insertaría anuncios (tal vez incluso activados para productos de mal gusto), eran «falso». «Claramente no tenemos la intención de hacer publicidad de la manera que lo retrata Anthropic», escribió Altman en una publicación en las redes sociales. «No somos estúpidos y sabemos que los usuarios lo rechazarán».
evento de crisis tecnológica
bostón, massachusetts
|
23 de junio de 2026
De hecho, OpenAI promete que los anuncios estarán segregados, etiquetados y no tendrán ningún impacto en el chat. Pero la compañía también dice que planea hacerlo más conversacional, que es el reclamo central de los anuncios de Anthropic. Como explicó OpenAI en su blog, «planeamos probar anuncios en la parte inferior de las respuestas de ChatGPT cuando haya un producto o servicio patrocinado relevante según la conversación actual».
Altman luego hizo afirmaciones igualmente dudosas a sus rivales. «Anthropic ofrece productos caros a los ricos», escribió. «También creemos firmemente que debemos llevar la IA a los miles de millones de personas que no pueden permitirse una suscripción».
Sin embargo, Claude también tiene espacios de chat gratuitos, con tarifas de suscripción de $0, $17, $100 y $200. Los niveles de ChatGPT son $0, $8, $20 y $200. Algunos podrían argumentar que los niveles de suscripción son bastante comparables.
Altman también afirmó en su publicación que «Anthropic quiere controlar lo que la gente hace con la IA». Afirmó estar bloqueando que «empresas que no nos gustan» como OpenAI utilicen el código de Claude, y dijo que Anthropic le está diciendo a la gente lo que pueden y no pueden hacer con la IA.
De hecho, el contrato de marketing de Anthropic ha sido «IA responsable» desde el primer día. Después de todo, la empresa fue fundada por dos ex alumnos de OpenAI, quienes afirmaron que desconfiaban de la seguridad de la IA mientras trabajaban allí.
Aun así, ambas empresas de chatbots cuentan con políticas de uso y barreras de seguridad de IA, y también abordan la seguridad de su IA. Además, si bien OpenAI permite el uso de ChatGPT para fines eróticos, Anthropic no lo permite, pero OpenAI, al igual que Anthropic, ha determinado que algunos contenidos, particularmente los relacionados con la salud mental, deben bloquearse.
Pero Altman llevó este argumento para decirles a los humanos qué hacer a un nivel extremo, acusándolos de ser «autoritarios».
«Una empresa autoritaria no puede llevarnos hasta allí por sí sola, sin mencionar otros riesgos obvios. Este es un camino oscuro», escribió.
Usar «autoritario» en una perorata contra un atrevido anuncio del Super Bowl es, en el mejor de los casos, un error. Esto es especialmente cruel dado el actual entorno geopolítico en el que agentes de sus propios gobiernos están asesinando a manifestantes en todo el mundo. Los rivales en el negocio han estado compitiendo en publicidad desde tiempos inmemoriales, pero claramente Anthropic ha tocado un punto sensible.
Source link
