|
Educación

El debate de la ética de la inteligencia artificial no es tecnológico sino social

Recientemente, más de mil profesionales del sector tecnológico pidieron una pausa de seis meses al desarrollo de la inteligencia artificial, avivando así el debate sobre la ética de esta tecnología que permea en todos los ámbitos de la vida moderna y que, sin embargo, no es representativa de la humanidad en su conjunto

La directora general adjunta de la UNESCO para las Ciencias Sociales y Humanas, Gabriela Ramos, conversó con Noticas ONU sobre los beneficios y riesgos de la Inteligencia Artificial y sobre la necesidad de regulación y gobernanza del mundo digital.

Al referirse a la moratoria solicitada, Gabriela Ramos la consideró poco realista y explicó que el propósito de esa petición coincide con lo que ha planteado la UNESCO desde hace dos años en su Recomendación sobre la Ética de la Inteligencia Artificial.

La amplia entrevista comenzó con la definición del término.

Noticias ONU: ¿Cómo define la inteligencia artificial la UNESCO?

Gabriela Ramos: La inteligencia artificial es la capacidad que están adquiriendo las computadoras con base en una disponibilidad mayúscula de datos de almacenamiento, de datos en la nube y de modelos computacionales muy poderosos de realizar actividades que se acercan a la inteligencia humana. Son capaces de producir análisis, reconocer patrones de comportamiento, hacer predicciones y recomendaciones.

Estamos frente a una tecnología que, además, es muy difundida y afecta todos los rubros de nuestra vida. No es un sector, no es una herramienta, es una tecnología que permea en todos los sectores, en toda la economía, en toda la sociedad, muy, muy difundida, en todo el mundo.

Noticias ONU: ¿Cuál es la importancia que tiene y cuáles son los beneficios que nos aporta?

Gabriela Ramos: Es un apoyo fundamental para los objetivos en las empresas, en los gobiernos. Por ejemplo, sin la inteligencia artificial, nunca hubiéramos podido elaborar cuatro vacunas del covid, porque con la capacidad de las computadoras pudimos hacer un análisis mucho más rápido del virus y tener análisis que a los seres humanos nos hubieran tomado mucho más tiempo.

Lo mismo que en la descodificación de los genes. Hubiera tomado a los seres humanos años y años realizar ciertos análisis, la velocidad con la cual esta tecnología está avanzando estos análisis es fundamental. Y luego, nos sirve para manejar sistemas. Son tecnologías que optimizan y maximizan los procesos, mejoran los procesos de manera que resultan mucho más eficientes y de ahí que, por ejemplo, uno tenga grandes expectativas de que nos puedan ayudar con el cambio climático, nos pueden ayudar a manejar mejor el sistema de alimentación mundial. Nos pueden ayudar a manejar mejor el consumo energético o planear la cuestión de los desastres naturales, que ya lo están haciendo en la actualidad.

Hay una contribución fundamental que puede hacer esta tecnología, además de todo lo demás que nos ha hecho la vida más fácil. Uno ya puede acceder al internet y tener muchas respuestas y tener muchos apoyos y vivir una vida mucho más cómoda. Es muy impresionante lo que nos pueden dar y lo que nos han dado que no se ve: optimizan y maximizan los sistemas bancarios y manejan los sistemas energéticos.

$!El debate de la ética de la inteligencia artificial no es tecnológico sino social

Noticias ONU: Tiene muchas ventajas, indudablemente; sin embargo, numerosos expertos en derechos humanos y científicos, la propia UNESCO, han advertido de los riesgos que supone...

Gabriela Ramos: Lo que decimos en la UNESCO es que éste no es un debate tecnológico, porque mucha gente quiere ver esto como un debate tecnológico, que tenemos que enfocarnos a las tecnologías, como si las tecnologías nos cayeran del cielo y no fueran una hechura de nosotros, de los seres humanos.

La pregunta fundamental que nos tenemos que hacer en un mundo altamente desigual -que es uno de los legados del modelo económico que hemos seguido, pero también del covid, etcétera-, es si estas tecnologías nos van a ayudar a reducir esas desigualdades o si las van a aumentar.

Con la información que tenemos hasta el momento, parecería que las están aumentando o al menos no están siendo utilizadas para reducir las brechas porque tenemos la mitad de la población del mundo que, o no está conectada a internet, o está conectada a un internet de baja calidad, o no tiene las competencias para utilizar las tecnologías de una mejor manera. Ya sólo con eso hay que hacer un esfuerzo enorme para que no sea una discusión de países con un nivel socioeconómico alto o mediano alto, sino que sea una discusión para todos.

Las tecnologías tienen el modelo económico en el cual se están desarrollando, están altamente concentradas. El último reporte de Stanford nos indica que Estados Unidos y China desarrollan el 80% de estas tecnologías. ¿Y qué es lo que sucede con ello? Que la falta de diversidad y de inclusión en el desarrollo de las tecnologías arroja resultados discriminatorios, llegan al mercado con equipos de inteligencia artificial que no son diversos, con ciertos sesgos, con ciertas formas de ver la vida, con bases de datos que no son representativos.

$!El debate de la ética de la inteligencia artificial no es tecnológico sino social

Porque si la mitad del mundo no está conectado, los datos no son de todo el mundo, son de ciertos grupos que pueden estar representados y los algoritmos pueden ser opacos y sesgados. Esto puede y ya está causando daño. Lo hemos visto, por ejemplo, con las tecnologías de reconocimiento facial que fueron como muy visibles, en donde tenían más problemas para reconocer gente de color oscura o mujeres, que hombres blancos. ¿Y por qué? Porque se les entrenó así, los algoritmos son mecanismos para entrenar a las computadoras a reconocer ciertos patrones. Si los patrones son de un hombre blanco de cierta región, evidentemente está reproduciendo los sesgos más allá de la utilización negativa, y estoy hablando simplemente de estos problemas inherentes que no tienen un objetivo negativo.

Cuando hablas de la utilización y la manipulación de los datos, la desinformación, y el objetivizar a la gente, o el espionaje masivo, o la notación social o la manipulación neuro cognitiva, esos ya son problemas mayores, pero también tienen que ver con una falta de regulación.

Para nosotros el tema no es la tecnología, es la sociedad y es la gobernanza de las tecnologías.

$!El debate de la ética de la inteligencia artificial no es tecnológico sino social

Noticias ONU: Precisamente, la UNESCO ha elaborado un marco ético para el uso de la inteligencia artificial. ¿Cuáles son las principales recomendaciones?

Gabriela Ramos: La principal recomendación es que nos aseguremos justamente que éste no sea un debate tecnológico sino social, y que nos aseguremos de que las tecnologías tienen una dirección clara para apoyarnos a nosotros, a nuestras sociedades, a los seres humanos, a tener resultados inclusivos y a construir sociedades justas y pacíficas. Nuestra recomendación empieza con esa definición. El tema ético es como una brújula donde el imperativo moral te dice cuándo tienes resultados dañinos, cuándo hay daño y cuándo no, pero la definición más concreta de la recomendación es que las tecnologías deben promover y proteger los derechos humanos y la dignidad humana.

Deben tener cuidado con su impacto carbónico, tienen que construir sociedades más justas y pacíficas y tienen que evitar la discriminación. Esto es casi como decir: dejemos de estar pensando que esto es solamente una cuestión comercial, o que esto se debe regir por cuestiones políticas, o que se debe regir por otras consideraciones, esto se tiene que regir por los valores más importantes que hemos desarrollado como seres humanos. Estos valores se tienen que traducir con algunos principios de transparencia, porque las tecnologías son muy opacas. Para nosotros es importante tratar de lograr esa transparencia, esa rendición de cuentas, lo que no es sencillo porque muchas veces las tecnologías reproducen y el desarrollador no tiene ni idea. Nuestra recomendación dice sí, seguramente hay cajas negras y seguramente hay aprendizaje de las máquinas, y ahora también de la tecnología generativa, evidentemente son palabras mayores, pero al final siempre debe haber un ser humano que es responsable y por esto nuestra recomendación dice no a darle una personalidad jurídica o legal a los desarrollos tecnológicos.

Si me han afectado en mis derechos humanos, yo tengo que saber quién fue y que me lo explique y buscar resarcimiento y establecer el estado de derecho en línea. Nuestra recomendación la elaboró un grupo multidisciplinario, al final fue adoptada por 193 países. Se trata de reenmarcar el debate y hacerlo un debate de resultados en nuestras sociedades y no geopolítico o comercial, o de otras consideraciones.

Si me han afectado en mis derechos humanos, yo tengo que saber quién fue y que me lo explique y buscar resarcimiento y establecer el estado de derecho en línea.

Noticias ONU: La recomendación la adoptaron 193 Estados, pero ¿qué me dice de las empresas, que son las principales desarrolladoras de la inteligencia artificial y las que lucran con ella? ¿Qué respuesta tiene de ellas?

Gabriela Ramos: Las empresas siempre van a aprovechar cualquier espacio de libertad que se les otorgue. Entonces, el hecho de que ahorita tengan este espíritu de autorregulación, y que también haya muchas de ellas que están cabildeando para que no se adopten ninguna regulación, no quiere decir que el Estado esté inerme y que los gobiernos no tengamos las herramientas para mejorar las cosas.

Aquí la única cuestión es que los gobiernos, y por eso esta recomendación se dedica a los gobiernos, adopten regulaciones sólidas que creen los incentivos para que las empresas hagan inversiones sustentables, y así las empresas van a cambiar su comportamiento porque no les va a quedar de otra.

No quiere decir que se deba hacer una cuestión impuesta de arriba hacia abajo, porque también hay que hacerlo en una forma donde se invite a las empresas a que compartan sus puntos de vista, pero la responsabilidad es de los gobiernos.

Los Estados crean una norma. Tienes una norma que las empresas tienen que seguir y les das la confianza, pero si algo sale mal debe haber una adjudicación del daño y tiene que haber un resarcimiento.

Noticias ONU: ¿Y lo ha habido?

Gabriela Ramos: Sí, sí hay muchos, por supuesto que sí, cuando se puede adjudicar el daño. Pero eso requiere de Estados capaces, de gobiernos capaces. Necesitamos invertir en las capacidades de los gobiernos, invertir en instituciones que se establezcan para cumplir con este objetivo y tener funcionarios que entiendan cómo funcionan las tecnologías y que puedan regularlas de una manera eficiente. Uno le tiene por qué pedir permiso al sector privado.

Noticias ONU: Hay Estados que utilizan la inteligencia artificial para espiar a sus ciudadanos. En este caso, ¿dónde queda el marco regulatorio? ¿Hace falta un cuerpo internacional que lo regule o ante quién son responsables y dónde se les puede imputar?

Gabriela Ramos: Creo que ahí también es una cuestión de responsabilidades. Lo interesante es que la recomendación de la UNESCO hace muy claro el prohibir el marcaje social. Y hace muy claro prohibir el espionaje masivo, que no es solamente entre gobiernos sino, como tú dices, tiene que ver también con los ciudadanos.

Creo que ese es uno de los ámbitos más preocupantes y me agrada que lo abordes porque no hay mucha gente que lo aborde y hay que difundirlo. Es muy preocupante porque estas tecnologías tienen una gran capacidad de conocer quién eres, qué haces, que te gusta, a dónde vas, con quién sales, todo está registrado. Si esto cae en manos autoritarias o dictatoriales puede ser muy peligroso, esto no es más que una razón más para tener reglas que protejan los derechos humanos. ¿Qué vamos a hacer si uno de los países usa estas tecnologías para hostigar a sus ciudadanos? Obviamente lo vamos a llamar porque firmaron nuestra recomendación y uno asume que cuando firman este tipo de acuerdos internacionales, los van a cumplir.

Noticias ONU: Como ciudadanos, ¿qué podemos hacer para que se respeten las recomendaciones? ¿Podemos ejercer algún tipo de presión o de vigilancia para que se respeten estas normas, para que se respeten las recomendaciones y para que se respete la privacidad y los derechos humanos?

Gabriela Ramos: Yo les pediría a todos tus lectores que vayan con sus legisladores y les demanden, en aquellos países que no tienen reglas muy claras o muy sólidas, para que desarrollen esas reglas y esas instituciones.

Los ciudadanos deben demandar a sus gobiernos esa protección, es fundamental, porque es la única manera de tener esta cultura. Por otro lado, como son los ciudadanos también quienes utilizan estas tecnologías, es muy importante que sepan y que se informen de qué se trata. Nosotros vamos a lanzar un observatorio de la de la ética de la inteligencia artificial. Va a ser una plataforma junto con el Alan Turing Institute y vamos a estar trabajando con Thomson Reuters para informar a los periodistas y darles entrenamiento sobre la recomendación de la ética, porque tenemos que hacerla contar y tenemos que lograr que se adopten las regulaciones y las instituciones a nivel nacional, pero también para que los que los individuos estén más conscientes y sepan de lo que se trata, eso de que aceptas cookies o no aceptas cookies es verdaderamente obsoleto, tiene que actualizarse y tienen que darle toda la información al individuo.

Los ciudadanos nos podemos proteger, tener la conciencia, informarnos, proteger a nuestros niños, proteger a nuestros jóvenes. Eso sí lo podemos hacer los ciudadanos.

Los ciudadanos nos podemos proteger, tener la conciencia, informarnos, proteger a nuestros niños, proteger a nuestros jóvenes.

Noticias ONU: ¿Para cuándo podemos esperar ese observatorio?

Gabriela Ramos: El observatorio estará en unos meses más, dos o tres. Y ahí van a tener una gran cantidad de análisis e información muy práctica respecto a qué hacer, qué no hacer y cómo entender estos desarrollos tecnológicos, cómo tener conciencia de lo que puede tener un impacto negativo.

Noticias ONU: Recientemente, un grupo de expertos y de empresarios del sector tecnológico, más de mil, fueron más allá de la petición que en septiembre de 2021 hizo la Oficina del Alto Comisionado de la ONU para los Derechos Humanos, para una moratoria de seis meses en la venta y uso de inteligencia artificial. ¿Esto puede tener de verdad algún impacto o es solamente retrasar un proceso que ya está en marcha o qué se puede conseguir en esos seis meses?

Gabriela Ramos: A mí no me parece que sea realista, pero tuvo la ventaja de que llamó la atención. La carta dice: necesitamos una pausa para construir los mecanismos de gobernanza que puedan asegurarnos que haya una utilización positiva de estas tecnologías. Lo puedes ver de dos maneras: o realmente puedes tener la pausa y te apuras a desarrollar las instituciones y los marcos regulatorios, o simplemente te apuras a crear los marcos regulatorios, que es lo que la UNESCO ha estado diciendo durante ya dos años desde que se adoptó la recomendación.

Hay una coincidencia con este grupo de mil trabajadores, pero nosotros no pensamos que pueda haber una pausa, lo que sí puede haber es una aceleración en la construcción de estas instituciones.

El lado positivo es que los países que ya estaban implementando la recomendación y trabajando con nosotros para desarrollar estos marcos éticos, los están acelerando y muchos países que ni siquiera se estaban acercando ya nos están hablando. Tenemos 40 países, al final de este año ya vamos a tener la evaluación del impacto ético y esperamos que podamos lograr nuestro objetivo que es tener un marco de gobernanza de la inteligencia artificial.

Noticias ONU: ¿Y estos 40 países representan a todas las regiones del mundo?

Gabriela Ramos: Sí, hay una gran masa crítica que además nos va a permitir, caminar juntos, eso también es importante en el ámbito multilateral. Todo mundo tiene una visión que puede aportar.