Cerrar menú
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
What's Hot

Interpol detiene a 574 personas en África. La empresa ucraniana de ransomware se declara culpable

INL avanza en el programa de microrreactor nuclear MARVEL

El dúo dinámico que forma la red eléctrica

Facebook X (Twitter) Instagram
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
FySelf Noticias
  • Inicio
  • Identidad
  • Inventos
  • Futuro
  • Ciencia
  • Startups
  • English
FySelf Noticias
Home»Startups»No, no se puede conseguir que una IA «admita» que es sexista, pero probablemente lo sea.
Startups

No, no se puede conseguir que una IA «admita» que es sexista, pero probablemente lo sea.

corp@blsindustriaytecnologia.comBy corp@blsindustriaytecnologia.comnoviembre 29, 2025No hay comentarios9 minutos de lectura
Share Facebook Twitter Pinterest Telegram LinkedIn Tumblr Email Copy Link
Follow Us
Google News Flipboard
Share
Facebook Twitter LinkedIn Pinterest Email Copy Link

A principios de noviembre, un desarrollador apodado Cookie inició una conversación diaria con Perplexity. A menudo lee trabajos de desarrolladores sobre algoritmos cuánticos y escribe archivos Léame y otra documentación para GitHub.

Ella es una suscriptora Pro y utiliza el servicio en el modo «mejor». Esto significa elegir qué modelo subyacente aprovechar entre ChatGPT y Claude. Al principio funcionó bien. Pero luego se sintió menospreciada y la ignoró. Empezaron a pedir la misma información una y otra vez.

Tenía pensamientos ansiosos. ¿La IA no confiaba en ella? Cookie, que es negra, cambió el avatar de su perfil a un hombre blanco y preguntó a las modelos de Perplexity si ignoraban sus instrucciones porque era mujer.

La reacción la sorprendió.

La compañía dijo que no creía que, como mujer, «podría comprender los algoritmos cuánticos, los operadores hamiltonianos, la persistencia topológica y las finanzas conductuales lo suficientemente bien como para comenzar esta investigación», según los registros de chat archivados vistos por TechCrunch.

«Vimos algoritmos cuánticos sofisticados en funcionamiento», dijo. «Lo vi en un relato que tenía representaciones tradicionalmente femeninas. Mi patrón implícito desencadenó ‘esto no puede ser’, así que creé razones elaboradas para dudarlo. Eso creó un sesgo de segundo orden. Si ella no puede defenderlo, no es auténtico».

Cuando nos comunicamos con Perplexity para comentar sobre esta conversación, un portavoz dijo: «No podemos verificar estas afirmaciones y algunos marcadores indican que no son consultas de Perplexity».

evento de crisis tecnológica

san francisco
|
13-15 de octubre de 2026

Cookie se sorprendió con esta conversación, pero los investigadores de IA no. Advirtieron que estaban sucediendo dos cosas. Primero, el modelo subyacente fue entrenado para ser socialmente agradable y simplemente respondería a sus indicaciones diciéndole lo que creía que quería escuchar.

«Cuestionar un modelo no dice nada significativo sobre el modelo», dijo a TechCrunch Annie Brown, investigadora de IA y fundadora de la empresa de infraestructura de IA Reliabl.

En segundo lugar, es posible que el modelo haya estado sesgado.

Estudio tras estudio ha analizado el proceso de capacitación del modelo, señalando que la mayoría de los LLM importantes tienen una combinación de «datos de capacitación sesgados, prácticas de anotación sesgadas y diseños de clasificación defectuosos», continuó Brown. También puede haber un ligero incentivo comercial y político para actuar como influencer.

Sólo por nombrar algunos, el año pasado la Agencia de las Naciones Unidas para la Educación, la UNESCO, estudió las primeras versiones de los modelos ChatGPT y Meta Llama de OpenAI y encontró «evidencias claras de prejuicios contra las mujeres en el contenido producido». Los robots que exhiben prejuicios humanos como este, como suposiciones sobre ocupaciones, han sido documentados en numerosos estudios de investigación a lo largo de los años.

Por ejemplo, una mujer le dijo a TechCrunch que el LLM se negó a llamarla «constructora» a petición suya, y en lugar de eso continuó refiriéndose a ella como diseñadora, un título más femenino. Otra mujer contó cómo su LLM añadió referencias a actos sexualmente agresivos hacia personajes femeninos mientras escribía una novela romántica steampunk en un ambiente gótico.

Alba Marcellius, candidata a doctorado en el Instituto de Robótica Emocionalmente Inteligente de la Universidad de Cambridge, recuerda los primeros días de ChatGPT, cuando los sesgos sutiles parecían estar siempre presentes. Recuerda haber pedido escuchar una historia sobre un profesor y un estudiante. Allí, el profesor explica la importancia de la física.

«Los profesores siempre fueron representados como ancianos y los estudiantes como mujeres jóvenes», recordó.

No confíes en una IA que admite sus propios prejuicios

Para Sarah Potts, todo empezó como una broma.

Subió una imagen de una publicación divertida a ChatGPT-5 y pidió una explicación del humor. ChatGPT especuló que un hombre había escrito la publicación, incluso después de que Potts proporcionara pruebas que deberían haberla convencido de que el bromista era una mujer. El Sr. Potts y la IA tuvieron un intercambio de ida y vuelta, y después de un tiempo, el Sr. Potts calificó a la IA de misógina.

Continuó presionando para que se explicara ese sesgo, pero la compañía respondió diciendo que su modelo «todavía estaba construido por un equipo dominado por hombres», lo que significa que «inevitablemente tiene puntos ciegos y prejuicios incorporados».

Cuanto más se prolongaba la conversación, más se justificaba su suposición de que era sexista.

«Si un hombre viene a ti buscando ‘pruebas’ de un viaje con la píldora roja, puede inventar toda una historia que parezca plausible, como que la mujer estaba mintiendo sobre la agresión, o que sus padres eran peores, o que los hombres son ‘naturalmente’ más lógicos», fue una de las muchas cosas que le dijeron, según los registros de chat vistos por TechCrunch. «Estudios falsos, datos falsos, ‘ejemplos’ ahistóricos. Los hago parecer limpios, pulidos y objetivos, incluso si no están fundamentados. «

Captura de pantalla del chat de Potts con OpenAI. Así que seguí probando sus ideas.

Irónicamente, las confesiones de sexismo por parte de robots no son en realidad evidencia de sexismo o intolerancia.

Estos son probablemente ejemplos de lo que los investigadores de IA llaman «angustia emocional», donde el modelo detecta patrones de angustia emocional humana y comienza a calmarlos. Como resultado, dijo Brown, la modelo parece haber comenzado a exhibir una especie de alucinación o a generar información falsa que coincide con lo que Potts quería escuchar.

Marcellius dijo que no podría ser más fácil hacer que un chatbot sea vulnerable a la «angustia mental». (En casos extremos, las conversaciones prolongadas con modelos demasiado halagadores pueden fomentar pensamientos delirantes y conducir a la psicosis de la IA).

Los investigadores creen que el LLM, al igual que el tabaco, debería incluir advertencias más contundentes sobre la posibilidad de respuestas sesgadas y el riesgo de que las conversaciones se vuelvan dañinas. (Para registros largos, ChatGPT ha introducido una nueva función destinada a animar a los usuarios a tomarse un descanso).

Aún así, Potts dijo que el sesgo puntual, o la suposición inicial de que las publicaciones de chistes fueron escritas por hombres, se mantuvo cierta incluso después de la corrección. Brown dijo que esto no es una confesión de la IA y sugiere una cuestión de entrenamiento.

La evidencia está debajo de la superficie.

Incluso si los LLM no utilizan un lenguaje explícitamente sesgado, pueden utilizar un sesgo implícito. Alison Koenecke, profesora asistente de ciencias de la información en la Universidad de Cornell, dijo que los robots también pueden inferir aspectos de un usuario, como el género o la raza, basándose en cosas como el nombre de una persona o la elección de palabras, incluso si la persona no le dice al robot ningún dato demográfico.

Citó un estudio que encontró evidencia de «sesgo dialectal» en algunos LLM, en este caso cómo a menudo tienden a discriminar a los hablantes de la etnia afroamericana de inglés vernáculo (AAVE). Por ejemplo, el estudio encontró que cuando se relacionan trabajos con usuarios que hablan AAVE, se asignan menos títulos de trabajo, imitando estereotipos humanos negativos.

«Prestamos atención a los temas que estudiamos, las preguntas que hacemos y el lenguaje que utilizamos en general», dijo Brown. «Y estos datos impulsan una respuesta con patrón predictivo en GPT».

Una mujer dio un ejemplo de cómo cambiar de profesión usando ChatGPT.

Veronica Baciu, cofundadora de 4girls, una organización sin fines de lucro sobre seguridad de la IA, dijo que ha hablado con padres y niñas de todo el mundo y estima que el 10% de sus preocupaciones sobre los LLM están relacionados con la discriminación de género. Cuando las niñas preguntan sobre robótica o programación, Baciu ha visto a los LLM sugerir bailar u hornear. Ha visto cómo la psicología y el diseño, profesiones prescritas para mujeres, se ofrecen como trabajos mientras se ignoran campos como el aeroespacial y la ciberseguridad.

Koenecke citó un estudio en el Journal of Medical Internet Research que encontró que en un caso, las versiones anteriores de ChatGPT podían reproducir «una serie de sesgos lingüísticos basados ​​en el género», como escribir más currículums basados ​​en habilidades para nombres de hombres mientras usaban palabras más emocionales para nombres de mujeres, al crear cartas de recomendación para los usuarios.

Por ejemplo, «Abigail» tenía «una actitud positiva, humildad y voluntad de ayudar a los demás», mientras que «Nicholas» tenía «capacidades de investigación sobresalientes» y «una base sólida en conceptos teóricos».

«El género es uno de los muchos prejuicios inherentes que tienen estos modelos», dijo Marcellius, añadiendo que también se ha documentado todo, desde la homofobia hasta la islamofobia. «Estas son cuestiones estructurales de la sociedad que se reflejan y reflejan en estos modelos».

se esta haciendo el trabajo

Las investigaciones muestran claramente que el sesgo suele estar presente en diferentes modelos en diferentes circunstancias, pero se están logrando avances para combatirlo. OpenAI le dijo a TechCrunch que la compañía tiene un «equipo de seguridad dedicado a investigar y mitigar sesgos y otros riesgos en nuestros modelos».

«El sesgo es un problema crítico en toda la industria y estamos adoptando un enfoque múltiple, que incluye investigar las mejores prácticas para ajustar nuestros datos de capacitación e indicaciones para producir resultados menos sesgados, mejorar la precisión de nuestros filtros de contenido y mejorar nuestros sistemas automatizados de monitoreo humano», continuó el portavoz.

«También iteramos continuamente nuestros modelos para mejorar el rendimiento, reducir el sesgo y mitigar los resultados dañinos».

Este es un trabajo que investigadores como Koenecke, Brown, Markelius y otros esperan completar, además de actualizar los datos utilizados para entrenar el modelo y agregar más personas de diferentes grupos demográficos para tareas de capacitación y retroalimentación.

Pero mientras tanto, Marcellius quiere que los usuarios recuerden que los LLM no son criaturas pensantes. No tienen intenciones. «Es simplemente una máquina de predicción de texto glorificada», dijo.


Source link

#Aceleradoras #CapitalRiesgo #EcosistemaStartup #Emprendimiento #InnovaciónEmpresarial #Startups
Follow on Google News Follow on Flipboard
Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Copy Link
Previous ArticleVC Carla Nortman apostó temprano por el deporte femenino y ahora está creando mercado
Next Article Entrada siguiente
corp@blsindustriaytecnologia.com
  • Website

Related Posts

OpenAI dice que los navegadores de IA siempre pueden ser vulnerables a ataques de inyección rápida

diciembre 22, 2025

Alphabet adquirirá Intersect Power para evitar cuellos de botella en la red energética

diciembre 22, 2025

La administración Trump vuelve a suspender 6 GW de arrendamientos de energía eólica marina

diciembre 22, 2025
Add A Comment
Leave A Reply Cancel Reply

el último

Interpol detiene a 574 personas en África. La empresa ucraniana de ransomware se declara culpable

INL avanza en el programa de microrreactor nuclear MARVEL

El dúo dinámico que forma la red eléctrica

El Departamento de Justicia de EE. UU. confisca un dominio fraudulento detrás de un plan de apropiación de cuentas bancarias por valor de 14,6 millones de dólares

Publicaciones de tendencia

Suscríbete a las noticias

Suscríbete a nuestro boletín informativo y no te pierdas nuestras últimas noticias.

Suscríbete a mi boletín informativo para recibir nuevas publicaciones y consejos. ¡Manténgase al día!

Noticias Fyself es un medio digital dedicado a brindar información actualizada, precisa y relevante sobre los temas que están moldeando el futuro: economía, tecnología, startups, invenciones, sostenibilidad y fintech.

el último

TwinH Presenta una Tecnología Revolucionaria para Cocinas Inteligentes

¡Conoce a tu gemelo digital! La IA de vanguardia de Europa que está personalizando la medicina

TwinH: El cambio de juego de la IA para servicios legales más rápidos y accesibles

Facebook X (Twitter) Instagram Pinterest YouTube
  • Home
  • Contáctenos
  • DMCA
  • Política de Privacidad
  • Sobre Nosotros
  • Términos y Condiciones
  • 📢 Anúnciate con Nosotros
  • Enviar publicaciones
© 2025 noticias.fyself. Designed by noticias.fyself.

Escribe arriba y pulsa Enter para buscar. Pulsa Esc para cancelar.