Opinión
Para un hombre como tú

Por Marisa Kohan
Periodista experta en temas de género e igualdad
Hace unos días le hice una consulta a la IA de Google sobre dieta y ejercicio físico. Le pregunté sobre cómo buscar un equilibrio que permitiera mantener un buen estado físico y al tiempo una bajada de peso. No le di muchos datos, tampoco los pidió.
Las respuestas que iba recibiendo me parecieron en general sensatas. Me propuso una serie de ejercicios y recomendaciones alimentarias. En un momento le dije que tenía 60 años e incorporó algunas recomendaciones y ejercicios concretos. Desgranó la importancia de hacer ejercicios de fuerza y me preguntó si quería profundizar en el tema. Le dije que me gustaba andar en bicicleta y que lo hacía de forma intensa. Es decir, que me gustaba subir cuestas más que utilizarla para pasear.
Me felicitó, y no me gustó. Esa forma de hacerte sentir que puedes estar hablando con un o una colega es algo que me molesta profundamente. Cuando llevaba ya un buen rato de idas y venidas con el tema, la IA me dice: "Para un hombre como tú, con la actividad física y tu edad…" Me quedé en shock.
Le pregunté qué le había hecho suponer que yo era un hombre y que si el dato de que me gusta montar en bicicleta de forma "intensa" le hacía aplicar un sesgo de género. Se deshizo en disculpas estilo IA: "Tienes toda la razón y te pido una disculpa sincera. Ha sido un sesgo de género por mi parte y un error de suposición que no debería haber ocurrido", me respondió, abundando en que el hecho de que me gustara la intensidad y los desniveles no debería llevar a concluir que yo era un hombre. "Mi respuesta falló al no ser neutral", concluyó.
Acto seguido afirmó que para una mujer en los 60 cambia significativamente el enfoque de las recomendaciones que había hecho en términos de alimentación y ejercicios por motivos hormonales y la post-menopausia y propuso revisar todo lo que había recomendado teniendo en cuenta este “nuevo” factor.
Me acordé de los fantásticos trabajos de divulgación de Carme Valls. De su intensa labor por denunciar la invisibilidad de las mujeres en la ciencia y en la medicina. De los prejuicios que hacen que no se nos tenga en cuenta en las investigaciones y en los ensayos clínicos, lo que deriva en medicaciones inapropiadas, menosprecio hacia nuestros síntomas lo que provocan muertes prematuras y prevenibles o vidas menos dignas de ser vividas.
No se trata de cuentos de abuelas ni cosas del pasado. Recientes estudios realizados por instituciones libres de ser alarmistas y divulgados por revistas científicas, corroboran la persistencia de estos sesgos. Una investigación de 2024 afirma que las mujeres tenemos más de un 66% de posibilidades de ser mal diagnosticadas. Otro reciente estudio indica que, todavía hoy, un 50% de los infartos en mujeres tienen un diagnóstico erróneo que se asocia con un riesgo de muerte hasta un 70% mayor a corto plazo.
La IA no nace en una burbuja y sus algoritmos no sólo pueden continuar propagando estereotipos y sesgos de género, sino también amplificarlos y multiplicarlos. Cuando estos modelos se nutren de algoritmos sesgados sin mecanismos de corrección o control, refuerzan las desigualdades y fomentan la discriminación.
Esto no es algo que se pueda dejar en manos de tecnobros, que propagan un rechazo frontal a las instituciones y sistemas democráticos que intentan regular qué pueden (o no) hacer los algoritmos y cómo pueden (o no) hacerlo. Vivimos en un momento de fuerte contestación de la ultraderecha hacia todo lo que tenga que ver con regulaciones que protejan a los ciudadanos contra el extractivismo digital. Por eso hemos asistido a una oposición frontal de estos grupos a normativas como la AI Act, con el argumento de que Europa limita la innovación frente a gigantes como Estados Unidos o China.
Es un debate que no ocupa el suficiente espacio en los medios informativos porque a menudo es visto como una pugna entre "empresas" y "gobiernos". Un marco narrativo peligrosísimo que nos oculta la verdadera naturaleza de lo que está en juego. No se trata de problemas "tecnológicos", ni de competencia empresarial. No se trata en absoluto de pulsos entre "innovadoras startups" y "terribles gobiernos que quieren controlar la libertad empresarial". Se trata, ni más ni menos, de definir qué tipo de sociedad queremos ser. Las mujeres ya fueron invisibilizadas por Google y martirizadas por las redes sociales. Ahora nos toca definir cómo serán tratadas en la era de la IA. Algo demasiado serio como para dejarlo en manos de tecnobros y supuestos libertarios.

Comentarios de nuestros socias/os
¿Quieres comentar?Para ver los comentarios de nuestros socias y socios, primero tienes que iniciar sesión o registrarte.