Google ha confirmado que firmará el Código de Práctica AI de Propósito General de la Unión Europea, un marco voluntario destinado a ayudar a los desarrolladores de IA a implementar procesos y sistemas para cumplir con las leyes de Bloque de IA.
En particular, Meta a principios de este mes calificó la implementación de la ley de IA de la UE «extralimitado», diciendo que Europa no firmaría el código, afirmando que estaba «en el camino equivocado para la IA».
El compromiso de Google tendrá lugar unos días antes de que los proveedores de «modelo de IA general» entrarán en vigencia el 2 de agosto. Las empresas que probablemente se vean afectadas por estas reglas incluyen nombres clave como Humanity, Google, Meta, OpenAI y varios otros modelos generativos a gran escala.
En una publicación de blog el miércoles, Kent Walker, presidente de Asuntos Globales de Google, admitió que la versión final del Código de Práctica es mejor que la UE originalmente propuesta, pero aún miraba las reservas sobre la ley y el código de IA.
«Nos preocupa que los riesgos de leyes y código de IA ralenten el desarrollo y el despliegue de IA en Europa, particularmente que la ley de derechos de autor de la UE, los pasos para retrasar la aprobación o los requisitos para exponer secretos comerciales pueden enfriar el desarrollo y el despliegue de modelos europeos y puede socavar la competitividad de Europa», escribe Walker.
Al firmar el Código de Práctica de la UE, las compañías de IA aceptarán seguir la lista de pautas, incluida la proporcionar documentación actualizada sobre herramientas y servicios de inteligencia artificial. No hay AI de entrenamiento para contenido pirateado. Cumpliremos para evitar que las solicitudes se utilicen en el conjunto de datos del propietario del contenido.
La innovadora ley de IA de la UE, una regulación basada en el riesgo de aplicaciones de IA, prohíbe los casos de uso de «riesgos inaceptables», como la manipulación cognitiva del comportamiento y la puntuación social. Las reglas también definen un conjunto de usos de «alto riesgo», como la autenticación biométrica y el reconocimiento facial, el uso de IA en dominios como la educación y el empleo. La Ley también requiere que los desarrolladores registren sistemas de inteligencia artificial y cumplan con las obligaciones de control de riesgos y calidad.
Eventos de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Source link
