El CEO de Openai, Sam Altman, dice que la humanidad está a solo unos años del desarrollo de información general artificial que puede automatizar la mayoría del trabajo humano. Si eso es cierto, la humanidad también merece comprender y hablar con las personas y la mecánica detrás de fuerzas tan increíblemente inestables.
Esta es la guía detrás del proyecto Archive para el Proyecto Midas y el Proyecto Archivo «Los archivos Operai», para el proyecto de vigilancia tecnológica de dos organizaciones de vigilancia de tecnología sin fines de lucro. El archivo es «una colección de preocupaciones documentadas sobre las prácticas de gobernanza de Rye, la integridad del liderazgo y la cultura organizacional». Además de crear conciencia, el objetivo del archivo es proponer caminos para que Operai y otros líderes de IA avanzaran con un enfoque en la gobernanza responsable, el liderazgo ético e intereses compartidos.
«La estructura de gobernanza y la integridad del liderazgo conducen a proyectos que son tan importantes como esto refleja la magnitud y la gravedad de la misión», se lee en la visión de cambio del sitio web. «Las empresas que lideran la carrera a AGI deben estar obligadas por estándares muy altos y mantenerse a sí mismas».
Hasta ahora, la competencia por la ventaja en la IA ha resultado en una escala en bruto. Esto ha llevado a empresas como OpenAI a Hoover Content sin aceptar fines de capacitación y para construir grandes centros de datos que están causando cortes de energía del consumidor local y mayores costos de energía. La carrera de comercialización también presiona a los inversores para que cambien los soportes de ganancias y los productos de los barcos antes de tomar las salvaguardas necesarias.
Esa presión de los inversores ha cambiado la estructura central de OpenAI. El archivo de Openai detalla cómo, en la era temprana sin fines de lucro, las ganancias de los inversores se limitaron inicialmente a hasta 100 veces, de modo que las ganancias de lograr AGI van a la humanidad. Desde entonces, la compañía ha anunciado planes para eliminar el límite y reconoció que hizo tales cambios para apaciguar a los inversores que recaudaron fondos bajo la condición de la reforma estructural.
El archivo destaca cuestiones como el proceso de evaluación de seguridad apresurada de OpenAI y la «cultura imprudente» y los posibles conflictos de intereses entre los miembros de la junta de OpenAI y el propio Altman. Incluyen una lista de posibles nuevas empresas en la propia cartera de inversiones de Altman.
El archivo también plantea preguntas sobre la honestidad de Altman. Este fue un tema de especulación cuando un empleado superior intentó echarlo en 2023 sobre «comportamiento engañoso y caótico».
«No creo que Sam deba poner su dedo en el botón de AGI», dijo el ex científico jefe de Open, dijo en ese momento.
Las preguntas y soluciones planteadas por el archivo Operai nos recuerdan que hay poca transparencia, vigilancia limitada y un enorme poder en manos de unos pocos. El archivo le da una idea de esa caja negra y tiene como objetivo cambiar las conversaciones de la inevitabilidad a la responsabilidad.
Source link
