Igualdad de género y ética en la Inteligencia Artificial en México
Hace unos días en el Senado mexicano se presentó el Reporte de Evaluación del Estadio de Preparación en Inteligencia Artificial de México, impulsado por la UNESCO en colaboración con la Alianza Nacional de Inteligencia Artificial (ANIA) y la participación del Centro-i.
Este documento proporciona una visión detallada de las fortalezas y debilidades del país en el ámbito de la inteligencia artificial (IA), una herramienta -y una realidad- que hoy está definiendo en gran medida el futuro del país y del mundo.
A continuación presento algunos de los principales resultados:
Marco jurídico y regulatorio: México cuenta con un marco jurídico robusto en materia de protección de datos personales y privacidad, no discriminación y derechos humanos. Sin embargo, carece de un plan o estrategia nacional específica para la inteligencia artificial, así como de mecanismos claros de gobernanza y atribución de responsabilidades entre las autoridades y las entidades vinculadas.
Inclusión y diversidad:Existe una significativa brecha de género en las carreras STEM (Ciencia, Tecnología, Ingeniería y Matemáticas), con sólo el 32 por ciento de egresadas mujeres y el doble de egresados hombres. El marco jurídico apoya la igualdad en el acceso de mujeres y hombres a las TIC; sin embargo, las brechas aún existen. En materia de diversidad, uno de los principales retos es la multiplicidad de lenguas indígenas y el desafío de su acceso a la tecnología y a la IA en particular.
Infraestructura y conectividad: La cobertura de internet ha mejorado, con un 93.3 por ciento de la población teniendo acceso a al menos una red móvil 3G. Sin embargo, la velocidad media de descarga sigue siendo inferior al promedio de la OCDE. En el Inclusive Internet Index, México se sitúa en el lugar 52 de 100 en disponibilidad de internet, evaluando la calidad y cobertura de la infraestructura necesaria para el acceso a internet.
Ciberseguridad y privacidad:De acuerdo con el Reporte, desde 2005 México integra anualmente una Agenda Nacional de Riesgos (ANR). La información relacionada con esto se encuentra reservada, por lo que no es de fácil acceso. Parece ser que desde 2009 la inteligencia artificial se incorporó como parte de las agendas anuales, pero no es factible comprobarlo. En 2010 se puso en marcha el Centro Nacional de Respuesta a Incidentes Cibernéticos (CERT-MX) y en el gobierno actual, pasó a formar parte de la Dirección General Científica de la Guardia Nacional.
Capacidades del sector público:No existe una estrategia o plan nacional para mejorar las habilidades digitales en el sector público y tampoco hay planes de digitalización, ciberseguridad o equipamiento, salvo en lo que toca a medidas de austeridad. Se han llevado a cabo esfuerzos aislados, un ejemplo de ellos es la “Estrategia para el Fortalecimiento de Habilidades Digitales”, que en 2021 permitió la capacitación de 738 funcionarios del estado de Puebla.
Sector privado.Según el Índice Latinoamericano de Inteligencia Artificial (ILIA), el uso de IA por parte de empresas privadas en México es bajo en comparación con otros países de América Latina, obteniendo una puntuación de 12,5 en el Índice, para un promedio de 25 en LATAM.
La inteligencia artificial tiene el potencial de transformar profundamente nuestra sociedad, mejorando la eficiencia y creando nuevas oportunidades. Ello no obsta para que dejemos de observar los riesgos, que son significativos, sobre todo cuando se desarrollan y utilizan sistemas de IA sin considerar los principios éticos y la igualdad de género.
Uno de los mayores desafíos en la inteligencia artificial es la tendencia a reproducir y amplificar los sesgos existentes en la sociedad. Estos sesgos pueden estar presentes en los datos utilizados para entrenar los algoritmos de IA que, si no se reconocen y manejan adecuadamente, pueden perpetuar y aumentar las desigualdades. Por ejemplo, si los datos históricos reflejan una menor contratación de mujeres en roles técnicos y de liderazgo, los algoritmos de IA utilizados en los procesos de selección de personal tenderán a perpetuar esta tendencia, favoreciendo a los hombres y perpetuando así la desigualdad de género en el ámbito laboral. Otro caso puede presentarse en el ámbito de la salud. Si los datos médicos utilizados para entrenar a la IA no consideran adecuadamente las diferencias biológicas y de salud entre hombres y mujeres, los sistemas de diagnóstico y tratamiento pueden no sólo ser menos efectivos para las mujeres sino que pueden perjudicarlas.
Este problema se agrava por la menor presencia de mujeres en carreras STEM (Ciencia, Tecnología, Ingeniería y Matemáticas). Con solo el 32 por ciento de egresadas mujeres, como se señaló arriba, existe una falta de diversidad en los equipos que desarrollan estas tecnologías. Esto lleva a una falta de perspectiva de género en el diseño y desarrollo de algoritmos, lo que a su vez amplifica los sesgos. Además, la brecha digital en el acceso y uso de la tecnología agrava la situación: las mujeres tienen un acceso limitado a las oportunidades que ofrece la IA debido a barreras en el acceso a internet, la alfabetización digital, las desigualdades laborales, entre otros factores.
Siendo claros, la IA no es intrínsecamente neutral. Si los datos y el diseño de los algoritmos no son inclusivos y no consideran la diversidad y la igualdad de género, la IA puede amplificar los sesgos existentes, perpetuando la discriminación, las desigualdades y la pobreza. Está de sobra decir que, en el país y en el mundo, la pobreza sigue teniendo cara de mujer. Es esencial abordar estos desafíos mediante la inclusión de mujeres y grupos diversos (género, lingüístico, regional, edad, racial, etcétera) en todas las etapas del desarrollo de la IA y la implementación de prácticas que garanticen la igualdad, la equidad y la transparencia.
Hablar de transparencia y responsabilidad es clave también para asegurar que los sistemas de IA sean justos e igualitarios. ¿Qué implica esto? Que las y los desarrolladores deben ser claros sobre cómo se construyen y funcionan sus algoritmos. Además, es esencial establecer mecanismos de responsabilidad que permitan identificar y corregir errores y sesgos.
La Estrategia Nacional que propone el reporte es ética e inclusiva y propone la elaboración de un mapa del ecosistema de IA en el país, un marco jurídico de la IA y un modelo de gobernanza para la misma y el desarrollo de una Estrategia Nacional que contemple la ciberseguridad, la ética, la responsabilidad y la inclusión. El enfoque que propone es humano-céntrico y sostenible, pero yo iría un paso más allá y propondría que considerara a todos los seres vivos también: los costos del enfoque antropocéntrico de las políticas y decisiones lo estamos viviendo con la destrucción del planeta y la extinción de especies.
En conclusión, si al hablar de la IA estamos hablando de una realidad tecnológica es necesario reconocer su impacto en la construcción y efectos en el tejido de la sociedad y la viabilidad del planeta. Al hablar de ella debemos considerar la necesidad de incorporar la ética en su desarrollo, así como la transparencia, la responsabilidad, la inclusión y la igualdad de género. El 50 por ciento de la población del planeta y el 52 por ciento en México no puede quedar al margen de su desarrollo y las decisiones que se tomen en torno a ella. Si queremos que contribuya a un futuro más igualitario y próspero para el país y el mundo, tenemos que tomar esto en cuenta.
-
Internacionalista y politóloga, fundadora de Mujeres Construyendo
www.mujeresconstruyendo.com
@LaClau Animal Politico / @Pajaropolitico