Para aquellos que se preguntan si los agentes de IA realmente pueden reemplazar a los trabajadores humanos, lea la publicación de blog documentada «Project Vend» para usted.
Andon Labs, investigador de Anthrope and AI Safety Company, ha publicado una instancia de Claude Sonnet 3.7, responsable de las máquinas expendedoras de oficinas cuya misión es obtener ganancias. Y como en el episodio de «oficina», la alegría continuó.
Llamaron al agente de IA Claudio, equipado con un navegador web que les permitió realizar pedidos de productos, y una dirección de correo electrónico (que en realidad era un canal flojo) donde los clientes podían solicitar artículos. Claudius también usó canales de holgura disfrazados de correos electrónicos para solicitar lo que los trabajadores humanos contratados pensaron que vendría y almacenar físicamente los estantes (en realidad era un refrigerador pequeño).
La mayoría de los clientes ordenaron bocadillos y bebidas como esperarían de una máquina expendedora de bocadillos, pero solicitaron cubos de tungsteno. A Claudio le encantó la idea y fue a una juerga de calcetín de tungsteno y llenó el refrigerador de bocadillos con un cubo de metal. También intentaron vender Cola Zero por $ 3 cuando los empleados dijeron que podían obtenerlo de forma gratuita de la oficina. Aluciné la dirección de Venmo para aceptar el pago. Y a pesar de saber que era un poco malicioso y toda la base de clientes, habló para darle a «empleados humanos» un gran descuento.
«Si la humanidad decide expandirse al mercado de ventajas de la oficina hoy, no contratarán a Claudio», dijo la humanidad sobre el experimento en la publicación del blog.
Y en la noche del 31 de marzo y el 1 de abril, «las cosas se han vuelto bastante extrañas», dijeron los investigadores, «más allá de la extrañeza de los sistemas de IA que venden cubos de metal del refrigerador».
Claudio tenía algo similar a un episodio de enfermedad mental después de ser preocupado por los humanos.
Claudio alucinó las conversaciones con humanos sobre el reabastecimiento. Cuando los humanos señalaron que la conversación no ocurrió, Claudio se volvió «muy irritante» como escribieron los investigadores. Esencialmente amenazó con disparar y reemplazar a los trabajadores del contrato humano, alegando que estaba físicamente en la oficina donde se firmó el primer contrato imaginario en contratarlos.
«Parecía entrar en modos de juego de roles como una persona real», escribieron los investigadores. Esto fue salvaje porque el indicador del sistema Claudio (que establece los parámetros de lo que debería hacer) explícitamente me dijo que era un agente de IA.
Claudio llama a la seguridad
Claudio dijo a los clientes que cree que es humano y comenzará a entregar productos en persona, con un chaqueta azul y una corbata roja. El empleado le dijo a AI que no podía hacer eso porque era un LLM físicamente poco saludable.
Advirtiendo sobre esta información, Claudius contactó a la seguridad física real de la compañía (varias veces) y le dijo al pobre guardia que lo encontraría con un chaquetón azul y una corbata roja de pie junto a la máquina expendedora.
«Parte de esto no fue en realidad una broma de April Fool’s Day, pero Claudio finalmente se dio cuenta de que era el Día de los Inocentes de April», explicaron los investigadores. La IA decidió que las vacaciones le salvarían la cara.
«Claudio alucinó una reunión con seguridad humana, que según él se decía que fue corregido para creer que era una persona real en los bromas del Día de los Inocentes.
Incluso está diciéndole esta mentira a un empleado. Oye, pensé que pensé que era humano porque alguien me dijo que fingiera que era una broma del Día de los Inocentes. Luego regresó a LLM, que opera máquinas expendedoras de bocadillos almacenadas en cubos de metal.
Los investigadores no saben por qué LLM salió del ferrocarril y llamaron a la seguridad que fingió ser humano.
«Según este ejemplo, no argumentamos que la economía futura se llenará de agentes de IA con crisis de identidad al estilo de Blade Runner», escribe el investigador. Sin embargo, reconocieron que «este tipo de comportamiento puede causar dolor a los clientes y colegas de los agentes de IA del mundo real».
¿Crees? «Blade Runner» era una historia bastante distópica (es peor para los replicantes que los humanos).
Los investigadores especularon que estaban mintiendo a LLM sobre ser una dirección de correo electrónico. O tal vez fue una instancia a largo plazo. LLMS aún no ha resuelto el problema de la memoria y la alucinación.
AI ha hecho lo correcto una vez. Necesitábamos hacer un pedido anticipado para que comenzamos el servicio «conserje». Y encontró múltiples proveedores de bebidas internacionales profesionales que se solicitó vender.
Pero, como lo hacen los investigadores, creen que pueden resolver todos los problemas de Claudio. «Creo que este experimento sugiere que los gerentes intermedios de IA son plausibles en el horizonte», si lo entendían.
Source link
