Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Cómo los principales CISO pueden superar el agotamiento y acelerar el MTTR sin contratar más personas

Energía eólica marina europea para una industria siderúrgica competitiva en la UE

El gusano TeamPCP explota la infraestructura de la nube para construir infraestructura criminal

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»La humanidad dice que algunos modelos de Claude pueden terminar con conversaciones «dañinas o abusivas»
Startups

La humanidad dice que algunos modelos de Claude pueden terminar con conversaciones «dañinas o abusivas»

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comagosto 16, 2025No hay comentarios2 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

Anthrope ha anunciado una nueva característica que permite que algunos de los modelos más grandes terminen las conversaciones que la compañía describe como «un caso raro y extremo de interacción de usuario permanentemente dañina o abusiva». Sorprendentemente, los humanos dicen que hacen esto para no proteger a los usuarios humanos, sino para proteger el modelo de IA en sí.

Para ser claros, la compañía no argumenta que el modelo Claude AI puede ser perceptivo o herido por las conversaciones con los usuarios. En sus propias palabras, la humanidad sigue siendo «muy incierta sobre los estados morales potenciales de Claude y otros LLM, o sobre los estados morales potenciales actuales o futuros».

Sin embargo, el anuncio apunta a un programa reciente creado para estudiar lo que se llama «bienestar modelo», diciendo que la humanidad esencialmente está adoptando un enfoque justo en el caso.

Este último cambio se limita actualmente a Claude Opus 4 y 4.1. Una vez más, debería ocurrir en «casos de borde extremo», como «solicitudes de usuarios de contenido sexual, incluidos menores, o intentos de solicitar información que permita la violencia a gran escala y los actos de miedo».

Si bien este tipo de solicitudes podrían crear problemas legales o publicitarios para la humanidad misma (presenciar un informe reciente sobre cómo ChatGPT potencialmente mejora o contribuye al pensamiento paranoico de los usuarios), la compañía declaró que las pruebas de desarrollo previo «mostraron una» fuerte preferencia «en respuesta a estas solicitudes y la» angustia atractiva de los patrones «.

Con respecto a estas nuevas características de fin de conversación, la compañía dijo: «En todos los casos, dice Claude, utilizando la capacidad de terminar la conversación como último recurso solo si múltiples intentos de redirección fallan y sus esperanzas de una interacción productiva se agotan, o si el usuario desea explícitamente claudarse para terminar el chat».

La humanidad también afirma que Claude tiene «instrucciones de no usar esta capacidad cuando los usuarios corren el riesgo inmediato de lastimarse a sí mismos y a los demás».

Eventos de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Una vez que Claude termina una conversación, la humanidad afirma que los usuarios pueden comenzar una nueva conversación desde la misma cuenta y editar respuestas para crear una nueva rama de una conversación problemática.

«Tratamos esta característica como un experimento continuo y continuaremos mejorando nuestro enfoque», dice la compañía.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleEl código fuente de Troyano bancario ERMAC v3.0 fugas expone la infraestructura de malware completa
Next Article El juez dice que la investigación de la FTC sobre los problemas de los medios de comunicación debería «tener que desconfiar de todos los estadounidenses».
corp@blsindustriaytecnologia.com
  • Website

Related Posts

Bueno, estoy un poco menos enojado por el proyecto de IA «Magnificent Ambersons»

febrero 8, 2026

Decenas de personas marchan en apoyo al multimillonario en San Francisco

febrero 8, 2026

Desde Svedka hasta Anthropic, las marcas están aprovechando audazmente la IA en sus anuncios del Super Bowl

febrero 8, 2026
Add A Comment
Leave A Reply Cancel Reply

el último

Cómo los principales CISO pueden superar el agotamiento y acelerar el MTTR sin contratar más personas

Energía eólica marina europea para una industria siderúrgica competitiva en la UE

El gusano TeamPCP explota la infraestructura de la nube para construir infraestructura criminal

BeyondTrust corrige una vulnerabilidad crítica de RCE previa a la autenticación en soporte remoto y PRA

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2026 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.