El director ejecutivo de Anthropic, Dario Amodei, emitió un comunicado el martes para «dejar las cosas claras» sobre la alineación de la compañía con las políticas de inteligencia artificial de la administración Trump, luego de «un aumento reciente de afirmaciones inexactas sobre la postura política de Anthropic».
«La antropología se basa en un principio simple: la IA debe ser una fuerza para el progreso humano, no una amenaza», escribió Amodei. «Eso significa crear productos que realmente funcionen, ser honesto acerca de los riesgos y beneficios y trabajar con personas que toman en serio hacer esto bien».
La reacción de Amodei sigue a una reacción violenta contra Anthropic la semana pasada por parte de los líderes de AI y altos miembros de la administración Trump, incluido el zar de AI David Sachs y el asesor principal de políticas de AI de la Casa Blanca Sriram Krishnan, todos los cuales acusaron a los gigantes de AI de avivar los temores de dañar la industria.
El primer golpe vino de Sacks después de que el cofundador de Anthropic, Jack Clark, hablara de sus esperanzas y «temores apropiados» sobre la IA, incluido el hecho de que es una criatura poderosa, misteriosa y «algo impredecible», y no una máquina confiable que pueda aprenderse y ponerse a trabajar fácilmente.
Respuesta de Sachs: «Anthropic está implementando una sofisticada estrategia de adquisición regulatoria basada en generar miedo. Anthropic es el principal responsable del frenesí regulatorio estatal que está dañando el ecosistema de startups».
El senador de California Scott Wiener, autor de la SB 53, el proyecto de ley de seguridad de la IA, defendió a Anthropic y criticó los «esfuerzos del presidente Trump para prohibir a los estados actuar sobre la IA sin promover las protecciones federales». Más tarde, Sachs redobló su apuesta, afirmando que Anthropic estaba trabajando con Wiener para «imponer una visión de izquierda para la regulación de la IA».
Siguieron más comentarios, con activistas anti-regulación como Sunny Madra, director de operaciones de Groq, diciendo que Anthropic estaba «causando perturbaciones en toda la industria» al insistir en algunas salvaguardias de la IA en lugar de innovación ilimitada.
evento de crisis tecnológica
san francisco
|
27-29 de octubre de 2025
Amodei dijo en un comunicado que cree que gestionar el impacto social de la IA debería ser una cuestión de «política sobre política» y que todos quieren asegurarse de que Estados Unidos tenga liderazgo en el desarrollo de la IA y al mismo tiempo desarrolle tecnología que beneficie a los estadounidenses. Defendió el trabajo de Anthropic con la administración Trump en áreas clave de la política de IA, citando ejemplos de cuando personalmente coqueteó con el presidente.
Por ejemplo, Amodei señaló el trabajo de Anthropic con el gobierno federal, incluida la oferta de Claude de Anthropic al gobierno federal y el acuerdo de 200 millones de dólares de Anthropic con el Departamento de Defensa (al que Amodei se refirió como el «Departamento del Ejército», haciéndose eco de la terminología preferida del presidente Trump, pero cualquier cambio de nombre requeriría la aprobación del Congreso). También señaló que Anthropic ha elogiado públicamente el Plan de Acción de IA del presidente Trump y apoya sus esfuerzos por ampliar el suministro de energía para «ganar la carrera de la IA».
A pesar de esta actitud cooperativa, Anthropic se ha enfrentado al rechazo de sus pares por desviarse del consenso de Silicon Valley en ciertas cuestiones políticas.
La compañía provocó por primera vez la ira de los funcionarios de Silicon Valley cuando se opuso a una propuesta de prohibición de 10 años de la regulación de la IA a nivel estatal, una disposición que enfrentó una oposición bipartidista generalizada.
Muchos en Silicon Valley, incluidos los líderes de OpenAI, argumentan que la regulación estatal de la IA desacelerará la industria y entregará las riendas a China. Amodei respondió que el riesgo real es que Estados Unidos continúe cargando los potentes chips de inteligencia artificial de Nvidia en centros de datos en China, y agregó que Anthropic está restringiendo la venta de servicios de inteligencia artificial a empresas controladas por China incluso cuando sus ingresos se ven afectados.
«Hay productos que no fabricamos y riesgos que no queremos correr, incluso si ganamos dinero», dijo Amodei.
Anthropic también recibió impopularidad por parte de ciertas empresas poderosas cuando apoyó la SB 53 de California, un proyecto de ley de seguridad ligero que requeriría que los principales desarrolladores de IA publicaran protocolos de seguridad para sus modelos fronterizos. Amodei señaló que el proyecto de ley incluye una excepción para las empresas con menos de 500 millones de dólares en ingresos brutos anuales, lo que eximiría a la mayoría de las nuevas empresas de cargas indebidas.
«Algunos han sugerido que podríamos estar interesados en dañar el ecosistema de startups de alguna manera», escribió Amodei, refiriéndose a la publicación de Sachs. «Las empresas emergentes son uno de nuestros clientes más importantes. Trabajamos con decenas de miles de empresas emergentes y nos asociamos con cientos de aceleradores y capitalistas de riesgo. Claude está impulsando toda una nueva generación de empresas nativas de IA, y no tiene sentido para nosotros dañar ese ecosistema».
Amodei dijo en un comunicado que Anthropic ha aumentado su tasa de ejecución de 1.000 millones de dólares a 7.000 millones de dólares en los últimos nueve meses mientras desplegaba IA «de forma cuidadosa y responsable».
«Antropic está comprometida con un compromiso constructivo en cuestiones de política pública. Si estamos de acuerdo, lo decimos. Si no estamos de acuerdo, ofrecemos alternativas para su consideración», escribió Amodei. «Continuaremos siendo honestos y directos y apoyando las políticas que creemos que son correctas. Los riesgos con esta tecnología son demasiado grandes para hacerlo de otra manera».
Source link
