Columna de Isabel Cornejo y Laura Castrogiovanni: Sesgos de género en uso de IA en biomedicina. Hacia una ética y enfoque de género del algoritmo



Un aspecto crucial de la vida de las personas es la conservación de la salud, en este sentido la Inteligencia Artificial (IA) ha venido a impactar la investigación y práctica biomédica. Sin embargo, cada vez hay más pruebas de que la IA refleja y perpetúa discriminaciones basadas en atributos personales, como el sexo y el género (Cirillo et al., 2022). En particular, en investigación se ha informado formas de discriminación contra las mujeres que impactan en la escasa participación de éstas en conferencias disciplinares, en el ascenso de la carrera académica, en que son menos citadas en revistas de alto impacto (Tran et al., 2020; Chatterjee and Werner, 2021) etc. Sin embargo, la participación plena e igualitaria de las mujeres en todos los ámbitos de la sociedad, junto con el desarrollo de sistemas basados en IA y su justa representación en los datos sanitarios, es un derecho humano fundamental (Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos, 1979).

Por desgracia, la literatura científica indica que los datos sanitarios son sesgados respecto de las mujeres. En efecto, los algoritmos que usa la IA podrían llegar a ser injustos e inequitativos, propagando la desigualdad y la discriminación contra las mujeres y por supuesto erosionando la confianza en nuestra sociedad, ya que erigir la ciencia, las regulaciones y las políticas públicas sobre bases imprecisas e injustas puede llegar a socavar los cimientos mismos de la democracia. De hecho, las tecnologías de IA podrían actuar como un arma de doble filo. Por un lado, los algoritmos pueden magnificar y perpetuar las desigualdades de sexo y género existentes si se desarrollan sin eliminar los sesgos y los factores de confusión. Por otro lado, tienen el potencial de mitigar las desigualdades integrando eficazmente las diferencias de sexo y género en la atención sanitaria si se diseñan adecuadamente. De hecho, los sistemas de IA son capaces de ofrecer un acceso rentable y dinámico a la información sanitaria y un tratamiento eficaz de problemas complejos relacionados con las enfermedades humanas (de Hond et al., 2022; Vokinger et al., 2021). En particular, la IA puede ser una herramienta eficaz en el diseño de nuevos fármacos, en el diagnóstico, el pronóstico médico y la evaluación del mejor tratamiento posible teniendo en cuenta las capacidades estadísticas más avanzadas y los conocimientos científicos sobre una enfermedad específica.

En este contexto, es importante recordar que tanto los aspectos biológicos (sexo) como los socioculturales (género) constituyen fuentes relevantes de variación en una serie de condiciones clínicas y subclínicas, afectando a múltiples factores como riesgo, edad de aparición, sintomatología, pronóstico y eficacia del tratamiento (Regitz-Zagrosek, 2012). Además, el sexo y el género suelen asociarse a diferencias en factores relacionados con el estilo de vida, como la dieta, la actividad física, el consumo de tabaco y alcohol, que también afectan la frecuencia de las enfermedades (Torres-Rojas & Jones, 2018). Por ejemplo, existe una mayor prevalencia de cáncer de mama (Anderson et al., 2010), osteoporosis (Alswat, 2017), alzehimer (Ullah et al., 2019) y enfermedad de Huntington (Zielonka & Stawinska-Witoszynska, 2020) entre las mujeres; mientras que el Parkinson (Ullah et al., 2019), la demencia por cuerpos de Lewy (Latimer et al., 2017) y la enfermedad de Duchenne están más extendidas entre los hombres. Además, hay enfermedades estrechamente relacionadas con el consumo de alcohol, drogas y tabaco, como el cáncer de pulmón, el cáncer oral (Chaturvedi et al., 2013), el cáncer de esófago (Montgomery, 2014), el cáncer de estómago (Carneiro, 2014) y el cáncer de hígado (Hefaiedh et al., 2013) que afectan más a los hombres.

Un sesgo común, especialmente en el contexto de los algoritmos de diagnóstico, es la falta de muestras representativas de la población en el conjunto de datos de entrenamiento necesarios para establecer una predicción más precisa y por tanto equitativa. Por su parte, el uso de conjuntos de datos antiguos podría no ser representativo de actuales comportamientos demográficos, perpetuando datos obsoletos que emplean categorías sospechosas como raza y género (Spurlin, 2019). Además, es importante subrayar que la supresión de información sensible como el sexo o el género para garantizar la equidad en el tratamiento de los datos podría traducirse en algoritmos menos equitativos si existen diferencias inherentes en la población subyacente. Por esta razón, es importante mantener la información sobre sexo y género en los datos, incluso si esto plantea un problema de privacidad (Zemel et al, 2013; Dwork et al., 2012).

Otra cuestión más cultural es el estudio de los sesgos de los algoritmos de diagnóstico consecuencia de los propios sesgos de los médicos, relacionados con la patología médica general. En consecuencia, no disponemos de conjuntos de datos que reflejen realmente las tasas de enfermedades, sino de conjuntos de datos representativos de los diagnósticos, y ambos no siempre coinciden (Straw, 2020). Por ejemplo, un estudio reveló que sólo el 17% de los cardiólogos diagnosticaron correctamente a las mujeres con mayor riesgo de cardiopatía que los hombres (Mosca et al., 2017). De hecho, los médicos suelen estar formados para reconocer patrones de angina de pecho e infarto de miocardio que se dan con más frecuencia en los hombres, por lo que las mujeres suelen estar infradiagnosticadas de enfermedades coronarias (Daugherty et al., 2017). Otro ejemplo en el ámbito de la salud mental, es que los médicos tienden a percibir a los hombres con personalidades antisociales y a las mujeres con personalidades histéricas, incluso cuando los pacientes presentan síntomas idénticos (Hamberg, 2008; Amisha et al., 2019; Spurlin, 2019, Krieger & Fee, 1994). En este contexto, está claro cómo los algoritmos entrenados en conjuntos de datos en los que el diagnóstico puede estar sujeto a sesgos, pueden codificar, expresarse y, a la larga, amplificar e incluso perpetuar este prejuicio.

Otra discriminación que podría manifestar la IA está relacionada con el tratamiento. En efecto, la infrarrepresentación de las mujeres en los ensayos clínicos de fármacos hace que éstas presenten más reacciones adversas que los hombres (Tharpe, 2011). En este contexto, la IA podría ayudar a prescribir fármacos que provoquen menos efectos adversos en las mujeres dentro de la misma categoría de medicamentos. Respecto de las características técnicas que hacen que las reacciones de las mujeres a los fármacos sean más complejas y por tanto las consideraciones bioéticas necesariamente deben reconfigurarse, son los modelos de ratón macho más representados que los modelos femeninos en la investigación biomédica básica, preclínica y quirúrgica (Melloni et al., 2010; Geller et al., 2018;), incluso en la actualidad (Yoon et al., 2014). En este contexto, es evidente la necesidad de investigación de grano más fino en el uso de algoritmos de IA capaces de modelar y representar la respuesta femenina a los fármacos.

Mayores esfuerzos en alfabetización multinivel en ética de la IA, así como códigos de buenas prácticas con enfoque de género en el uso de IA, pueden acelerar el esperado proceso de ajustes en el uso de IA en biomedicina, especialmente para las mujeres, aunque precisar los algoritmos beneficia a toda la sociedad y otorga una mayor confianza en el desarrollo de la ciencia, así como en un uso ético de la IA, a fin de alcanzar un verdadero estándar de bienestar y equidad para todas las personas.

Por Isabel Cornejo Plaza, Investigadora IID, U Autónoma de Chile y Módulo Jean Monnet IA y Derecho Privado Europeo y Laura Castrogiovanni, Investigadora U. de Perugia, Italia

Comenta

Los comentarios en esta sección son exclusivos para suscriptores. Suscríbete aquí.