|
Seguridad

Ocho grandes tecnológicas llegan a un acuerdo con la UNESCO por una IA más ética

Las empresas, GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce y Telefónica,se comprometen a integrar las recomendaciones de la agencia
05/02/2024 18:04

Ocho grandes compañías tecnológicas han llegado a un acuerdo con la UNESCO para para construir una inteligencia artificial más ética.

Las empresas, GSMA, INNIT, Lenovo Group, LG AI Research, Mastercard, Microsoft, Salesforce y Telefónica,se comprometen a integrar las recomendaciones de la agencia sobre el uso de la inteligencia artificial.

“Esta alianza entre los sectores público y privado es fundamental para construir la IA en beneficio común”, dijo la directora general de la UNESCO, Audrey Azoulay.

Es la primera vez que empresas privadas se comprometen con las Naciones Unidas en esta área.

El acuerdo establece que se deben cumplir con los estándares de seguridad, identificar los efectos adversos de la IA y tomar medidas oportunas para prevenir, mitigar o remediarlos, de acuerdo con la legislación nacional.

Las recomendaciones se basan en cuatro valores fundamentales que sientan las bases para que los sistemas de IA trabajen por el bien de la humanidad, las personas, las sociedades y el medio ambiente.

Diez principios básicos establecen un enfoque de la ética de la IA centrado en los derechos humanos:

1. Proporcionalidad e inocuidad

El uso de sistemas de IA no debe ir más allá de lo necesario para alcanzar un objetivo legítimo. La evaluación de riesgos debe utilizarse para prevenir los daños que puedan derivarse de usos ilegítimos.

2. Seguridad y protección

Los daños no deseados (riesgos de seguridad) y las vulnerabilidades a los ataques (riesgos de protección) deberían ser evitados y tomados en consideración.

3. Derecho a la intimidad y protección de datos

La privacidad debe protegerse y promoverse a lo largo de todo el ciclo de vida de la IA. También deben establecerse marcos adecuados de protección de datos.

4. Gobernanza y colaboración adaptativas y de múltiples partes interesadas

En el uso de datos, deben respetarse el derecho internacional y la soberanía nacional. La participación de diversas partes interesadas a lo largo del ciclo de vida de los sistemas de IA es necesaria para el desarrollo de enfoques inclusivos.

5. Responsabilidad y rendición de cuentas

Los sistemas de IA deben ser auditables y trazables. Deben existir mecanismos de supervisión, evaluación de impacto, auditoría y diligencia debida para evitar conflictos con las normas de derechos humanos y amenazas al bienestar medioambiental.

6. Transparencia y explicabilidad

El despliegue ético de los sistemas de IA depende de su transparencia y explicabilidad (T&E). El nivel de T&E debe ser adecuado al contexto, ya que puede haber tensiones entre T&E y otros principios como la privacidad, la seguridad y la protección.

7. Supervisión y decisión humanas

Los Estados Miembros deberían velar por que siempre sea posible atribuir la responsabilidad ética y jurídica a personas físicas o a entidades jurídicas existentes.

8. Sostenibilidad

Las tecnologías de IA deben evaluarse en función de su impacto en la “sostenibilidad”, entendida como un conjunto de objetivos en constante evolución, incluidos los establecidos en los Objetivos de Desarrollo Sostenible (ODS) de Naciones Unidas.

9. Sensibilización y educación

La sensibilización y la comprensión del público respecto de la IA y el valor de los datos deberían promoverse mediante una educación abierta y accesible, la participación cívica, las competencias digitales y la capacitación, y la alfabetización mediática e información.

10. Equidad y no discriminación

Los actores de la IA deberían promover la justicia social, salvaguardar la equidad y luchar contra todo tipo de discriminación, adoptando un enfoque inclusivo para garantizar que los beneficios de la IA sean accesibles para todos.