Cuando Xai lanzó Grok 4 la semana pasada, la compañía afirmó que su modelo de lenguaje grande superó a varios competidores en varios puntos de referencia.
Sin embargo, la cuenta de GROK para X que ejecuta el modelo rápidamente mostró que había algunos problemas importantes. Parece que comienza a decir que su apellido es «Hitler», tuitea mensajes antisemitas y los menciona cuando se le pregunta sobre el tema que es controvertido cuando se le pregunta sobre las opiniones del propietario de Xai.
Zai inmediatamente se disculpó por las acciones de Glock. El martes, la compañía dijo que actualmente está tratando con ambos problemas.
Explicando qué salió mal, cuando se le preguntó a Xai cuál era el apellido, Grok buscó en la web y lo recogió con un «meme viral llamado» Mecha Hitler «.
En cuanto a por qué Grok consultó la publicación de Musk cuando se le preguntó sobre un tema controvertido, la compañía escribió:
La compañía parece estar actualizando la solicitud del sistema en el modelo para eliminar las indicaciones para que el chatbot esté políticamente incorrecto y pueda tener una «gran» sensación de humor seco. También le dice al modelo que hay varias líneas nuevas y que necesita proporcionar un análisis de temas controvertidos utilizando una variedad de fuentes diversas.
«Si una consulta requiere un análisis de los eventos actuales, reclamos subjetivos o estadísticas, realizamos un análisis profundo y encontramos una variedad de fuentes que representan a todas las partes interesadas. Suponga que la perspectiva subjetiva proporcionada por los medios está sesgada. Esto no es necesario repetir al usuario», se le dice el indicador actualizado.
El Sistema actualizado indica específicamente que Grok no debe depender de las aportes de versiones anteriores, Musk o XAI.
«La respuesta debe surgir de un análisis independiente, no de las creencias identificadas de Glock, Elon Musk o Xai. Cuando se le preguntó sobre tales preferencias, proporciona su propia perspectiva racional», dice.
Source link
