Para los desarrolladores que trabajan con IA, la “codificación de vibración” en este punto significa cuidar cada acción o arriesgarse a dejar que el modelo se ejecute sin control. Anthropic dice que las últimas actualizaciones de Claude tienen como objetivo eliminar esa opción al permitir que la IA determine qué acciones son seguras de realizar por sí sola, aunque con algunas limitaciones.
Esta medida refleja cambios más amplios en toda la industria, ya que las herramientas de inteligencia artificial están cada vez más diseñadas para funcionar sin la aprobación humana. El desafío es equilibrar la velocidad y el control. Demasiadas barreras pueden ralentizar las cosas; muy pocos pueden hacer que el sistema sea peligroso e impredecible. El nuevo «Modo automático» de Anthropic se encuentra actualmente en fase preliminar de investigación. Es decir, se puede probar, pero aún no es un producto terminado. Este es el último intento de enhebrar esa aguja.
El modo automático utiliza salvaguardas de IA para revisar cada acción antes de que se lleve a cabo, buscando signos de comportamiento riesgoso no solicitado o inyección rápida. La inyección rápida es un tipo de ataque en el que se ocultan instrucciones maliciosas en el contenido procesado por una IA, lo que provoca que realice acciones no deseadas. Las acciones seguras continúan automáticamente, pero las acciones peligrosas se bloquean.
Esto es esencialmente una extensión del comando existente «Permitir saltos peligrosos» de Claude Code, que deja toda la toma de decisiones a la IA, pero con una capa adicional de seguridad en la parte superior.
Esta función se basa en un conjunto de herramientas de codificación autónomas de empresas como GitHub y OpenAI que pueden realizar tareas en nombre de los desarrolladores. Pero vamos un paso más allá al trasladar la decisión sobre cuándo pedir permiso al usuario a la propia IA.
Anthropic no detalla los criterios específicos que utiliza la capa de seguridad para distinguir entre acciones seguras e inseguras. Los desarrolladores deberán comprender mejor esta característica antes de que se adopte ampliamente. (TechCrunch se ha comunicado con la empresa para obtener más información al respecto).
El modo automatizado llega cuando Anthropic lanza Claude Code Review, un revisor de código automatizado diseñado para encontrar errores antes de que lleguen a su base de código, y Dispatch for Cowork, que permite a los usuarios enviar tareas a un agente de inteligencia artificial para manejar el trabajo en su nombre.
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
El modo automático se implementará para los usuarios empresariales y de API en los próximos días. La compañía dice que actualmente solo funciona con Claude Sonnet 4.6 y Opus 4.6, y recomienda usar esta nueva característica en «entornos aislados», o entornos que limiten el daño potencial si algo sale mal en una configuración de espacio aislado de los sistemas de producción.
Source link
