marzo 01, 2022

El desafío ético de la Inteligencia Artificial

BANER BLOG

La industria se sensibiliza frente a las implicaciones morales de la tecnología.

 
Por Álvaro Montes
 

La Unesco puso de moda la ética de la Inteligencia Artificial. En una declaración que se hizo popular en las noticias hace poco, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura estableció una guía para los países miembros con recomendaciones acerca de las implicaciones y riesgos éticos de la IA, y los principios que deberían regir el desarrollo de tecnologías cruciales hoy en la economía y la cultura digital. El documento pide a las 193 Estados asociados que, por favor, consideren aplicar este marco ético.

La declaración señala en particular algunas tecnologías que están en el ojo del huracán, como el reconocimiento facial y los sistemas inteligentes que formulan recomendaciones, por ejemplo, los que recomiendan quién debe ser contratado en una empresa, o los que recomiendan contenidos en los buscadores y en las redes sociales. Con estas sugerencias inteligentes nos topamos todos los días: cuando navegamos Internet, participamos en las redes sociales, escuchamos música en Spotify o nos sentamos, tazón de crispetas en mano, a disfrutar las series de Netflix. Todo allí está orientado por algoritmos que nos indican lo que debemos seleccionar. ¿Y cuál es el problema con eso?

El reconocimiento facial y los sistemas de recomendaciones con alguna frecuencia contienen graves sesgos étnicos, de géneros y hasta políticos, los cuales heredaron de sus creadores. Los desarrolladores de estas maravillas son generalmente hombres blancos de clase media alta norteamericanos, y hay una reducida presencia de mujeres en los equipos de investigación y desarrollo, así como una mínima participación de etnias afro. "Solo el 22% de los profesionales que se dedican a la IA son mujeres. Debido a que están subrepresentados en la industria, los prejuicios y estereotipos de género se están reproduciendo en las tecnologías", señala el documento.

Los sistemas inteligentes se alimentan de las bases de datos, en donde también hay sesgos. Un ejemplo típico es cuando un sistema de reconocimiento facial identifica a potenciales delincuentes preferiblemente entre rostros de hombres afro, como ha ocurrido en plataformas de la Policía en Estados Unidos. Con sencillos ejemplos se puede evidenciar el problema existente en la sesgada representación de imágenes en la Internet. Una búsqueda de imágenes de "colegiala" probablemente mostrará una página llena de mujeres vestidas con disfraces eróticos. Por el contrario, la búsqueda de "colegial", arrojará principalmente jóvenes estudiantes vestidos con uniformes escolares. Los estereotipos culturales se ven reflejados en la mayor base de datos del mundo, Internet. "Un motor de búsqueda puede convertirse en una cámara de resonancia que mantiene los prejuicios del mundo real y afianza aún más estos prejuicios", advierte Unesco. DENTRO DEL BLOG

Sobre los sistemas de recomendaciones, por ejemplo, las listas de música en las plataformas de streaming, la institución dice que “los artistas locales o los contenidos creativos y culturales infrarrepresentados son menos proclives a aparecer en las recomendaciones de estos sistemas si sus trabajos o espectáculos son insuficientemente lucrativos”. Absolutamente cierto.

Muchos bancos en la actualidad implementan soluciones tecnológicas para ayudar en los procesos de otorgamiento de créditos. El problema es que se han presentado denuncias sobre sesgos machistas en los algoritmos que gobiernan estas plataformas, que a veces tienden a otorgar más créditos a hombres que a mujeres.

Son numerosos los casos conocidos que demuestran que la inteligencia Artificial hereda los prejuicios morales, raciales, y sexuales de sus creadores, de tal manera que los robots, que en principio causan tanta admiración, podrían estar perpetuando la exclusión, las brechas y las desigualdades. La responsabilidad, como puede desprenderse, no recae sobre la tecnología, sino sobre sus arquitectos.

Acerca del reconocimiento facial, la declaración de la Unesco propone que estos sistemas “no deberían ser utilizados con fines de vigilancia masiva o rendición de cuentas sociales”.

Y sobre los llamados "Robots asesinos" (máquinas dotadas de IA que pueden tomar de manera autónoma decisiones de ataque contra humanos) que varias superpotencias tienen en fase de desarrollo y pruebas, afirma que “las decisiones de vida o muerte no deben ser tomadas por sistemas de Inteligencia Artificial”.

En realidad, la preocupación por el ángulo moral de las máquinas y de la IA nació en la academia norteamericana y europea hace algunos años, en donde ya se trabaja sobre los temas de la ética de las máquinas, la moral de los robots y los peligros potenciales de los algoritmos.

Desde luego, no es saludable sembrar un terror de ciencia ficción acerca de los algoritmos y la Inteligencia Artificial. En la economía digital estas tecnologías son esenciales y todos los países las requieren si aspiran a ocupar un lugar en el escenario económico internacional. Los algoritmos permiten a las empresas monitorear los mercados, identificar tendencias y patrones de consumo, orientar mejor el diseño de sus productos y solucionar problemas reales de la sociedad. Software inteligente sustituye a los humanos en tareas tediosas y eleva la productividad de los negocios, razón por la cual hoy el 99 por ciento de las diez mil empresas más grandes de Estados Unidos tienen proyecto de inversión en Big Data y en I.A.

Hay robots ayudando a mejorar la atención en salud y algoritmos que ayudaron a la lucha contra el Covid-19, así como códigos de cifrado que aseguran las transacciones en línea y protegen los datos de las personas. Pero es oportuno el llamado de atención que hizo Unesco, para no perder de vista que la tecnología está en nuestras vidas para servir a los humanos, no al revés.

Alvaro Montes
Alvaro Montes