En poco más de una semana, las negociaciones sobre el uso por parte del Pentágono de la tecnología Claude de Anthropic colapsaron, y la administración Trump designó a Anthropic como un riesgo para la cadena de suministro y dijo que la compañía de inteligencia artificial impugnará la designación en los tribunales.
Mientras tanto, OpenAI anunció rápidamente su propio acuerdo, lo que provocó una reacción violenta que hizo que los usuarios desinstalaran ChatGPT e impulsaran a Claude de Anthropic a la cima de las listas de la App Store. Y al menos un ejecutivo de OpenAI renunció por temor a que el anuncio se hiciera apresuradamente sin las medidas de seguridad adecuadas.
En el último episodio del podcast Equity de TechCrunch, Kirsten Kolosek, Sean O’Kane y yo discutimos lo que esto significa para otras nuevas empresas que buscan trabajar con el gobierno federal, específicamente el Departamento de Defensa. Kirsten se preguntó si las cosas cambiarían un poco.
Sean señaló que ésta es una situación inusual en muchos sentidos. Una razón es que OpenAI y Claude están creando productos sobre los que «nadie puede callarse». Y lo que es más importante, dado que se trata de una controversia sobre cómo se utiliza o no su tecnología para matar personas, naturalmente será objeto de un mayor escrutinio.
Aún así, Kirsten argumentó que esta es una situación que debería «dar a cada startup una pausa».
Lea una vista previa de la conversación a continuación, editada para mayor extensión y claridad.
Kirsten: Me pregunto si otras nuevas empresas están empezando a darse cuenta de lo que pasó con el gobierno federal, específicamente el Departamento de Defensa y Anthropic, y esa discusión y lucha libre. Y haga una pausa sobre si buscar o no fondos federales. ¿Cambiará un poco el tono?
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
Sean: Yo también tengo curiosidad por eso. A corto plazo, creo que hasta cierto punto no, porque si realmente piensas en las diferentes empresas, ya sean nuevas o compañías más establecidas de Fortune 500 que trabajan con el gobierno, especialmente el Departamento de Defensa y el Departamento de Defensa, muchas de ellas pasan desapercibidas en su trabajo.
General Motors fabrica vehículos de defensa para el Ejército y lo lleva haciendo desde hace mucho tiempo, trabajando en todas las versiones eléctricas y automáticas de esos vehículos. Ese tipo de cosas sucede todo el tiempo, pero nunca forma parte del espíritu de la época. Creo que el problema con el que se han topado OpenAI y Anthropic durante la semana pasada es que se trata de empresas que fabrican productos que mucha gente usa y, lo que es más importante, nadie puede callarse.
Así que se ha puesto tanta atención en ellos y, naturalmente, se ha destacado su participación a un nivel con el que la mayoría de las otras empresas que tienen contratos con el gobierno federal, especialmente cualquiera de los elementos bélicos del gobierno federal, no necesariamente tienen que lidiar.
La única advertencia que agregaría es que gran parte del acalorado debate que está teniendo lugar entre Anthropic y OpenAI y el Departamento de Defensa es muy específico sobre cómo se usa su tecnología para matar gente, o cómo se usa en algunas de las misiones que matan gente. No es sólo la atención que reciben y la familiaridad que tenemos con su marca, sino que hay un elemento adicional que creo que es más abstracto cuando piensas en General Motors como un contratista de defensa o algo así.
No creo que Applied Intuition ni ninguna de las otras empresas que anuncian el uso dual logren una gran salida. Esto se debe a que no lo destaco y no existe un entendimiento común sobre cuál es su impacto.
Anthony: Esta historia es muy singular y, en muchos sentidos, exclusiva de estas empresas y estas personas. Así que hay muchas ideas realmente interesantes sobre «¿Cuál es el papel de la tecnología en el gobierno?» ¿IA en el gobierno? Y creo que todas esas son buenas preguntas y preguntas que vale la pena plantear y considerar.
Sin embargo, también creo que es una lente muy interesante para observar algunas de estas cosas porque Anthropic y OpenAI no son tan diferentes en muchos aspectos o en las posturas que adoptan. No es que una empresa diga: «No queremos trabajar con el gobierno» y la otra diga: «Sí, lo haremos». O algunas personas dicen: «Puedes hacer lo que quieras». Y (la otra persona) dice: «No, quiero poner límites». Ambas empresas han dicho, al menos públicamente, que les gustaría que se pusieran límites al uso de la IA. Anthropic parece estar profundizando en el tema de «no se pueden cambiar términos como este».
Y luego está la incorporación de Emil Michael, el director ejecutivo de Anthropic y a quien muchos lectores de TechCrunch recordarán de sus días en Uber, quien ahora es el director de tecnología del Departamento de Defensa. Al parecer, no se gustan mucho. Según se informa.
Sean: Sí, aquí hay un elemento muy importante de «pelea de chicas» que no debe pasarse por alto.
Kirsten: Sí, sólo un poquito. Lo es, pero la connotación es un poco más fuerte que eso. Nuevamente, retrocediendo un poco, de lo que estamos hablando aquí es de que el Pentágono y Anthropic entraron en un conflicto y parece que Anthropic perdió, pero hay que decir que todavía son muy utilizados por los militares. Estas se consideran tecnologías importantes, pero OpenAI está interviniendo y esto está evolucionando y puede cambiar cuando se publique este episodio.
Este viento en contra es interesante para OpenAI, y creo que las desinstalaciones de ChatGPT aumentaron un 295% después de que OpenAI firmara el acuerdo con el Departamento de Defensa.
Para mí, todo esto es ruido sobre algo realmente importante y peligroso: el Departamento de Defensa estaba tratando de cambiar los términos existentes de un contrato existente. Y esto es muy importante y debería hacer reflexionar a todas las startups porque la maquinaria política que está sucediendo ahora, especialmente la maquinaria política del Pentágono, parece diferente. Esto no es normal. El problema radica en el hecho de que el contrato tarda una eternidad en consolidarse a nivel gubernamental, y el gobierno está tratando de cambiar sus términos.
Source link
