Por Lilibeth Farkas Rivera · Gerente de Asuntos Legales
La Asamblea General de la ONU adoptó el 13 de marzo de este año una resolución histórica para regular y promover el uso seguro y confiable de la Inteligencia Artificial (IA) en beneficio del desarrollo sostenible. La resolución fue liderada por Estados Unidos y respaldada por más de 120 Estados miembros, es decir, fue adoptada por consenso con un golpe de mazo y sin votación.
La Resolución se enfoca en los siguientes aspectos: (i) solicita a los Estados que se abstengan de utilizar sistemas de IA que no cumplan con las normas internacionales de derechos humanos o que los pongan en riesgo, (ii) resuelve promover sistemas seguros, protegidos y fiables de IA, (iii) reconoce el potencial de la IA para acelerar el progreso hacia los Objetivos de Desarrollo Sostenible, en sus tres dimensiones: económica, social y ambiental, y (iv) busca cerrar la brecha digital entre países desarrollados y en desarrollo.
La Resolución (a diferencia de las resoluciones del Consejo de Seguridad), no es jurídicamente vinculante, su utilidad, es servir de indicador del sentir mundial, en este caso, de la preocupación por los riesgos asociados con la IA y la necesidad de una regulación ética y responsable.
También alienta a los Estados Miembros y a una variedad de interesados, incluyendo el sector privado, organizaciones internacionales, sociedad civil, medios de comunicación, academia y comunidad técnica, a colaborar en la elaboración y apoyo de enfoques y marcos normativos para promover entornos internacionales propicios para soluciones basadas en IA segura y fiable; para el fortalecimiento de la inversión en capacitación y en la elaboración y la aplicación de salvaguardias eficaces, incluidas seguridad física, seguridad de los sistemas de inteligencia artificial y gestión de los riesgos durante todo el ciclo vital de los sistemas de IA.
Promueve la adopción de enfoques regulatorios y de gobernanza nacionales para respaldar la innovación y la inversión en inteligencia artificial, junto con sistemas seguros y fiables. Se alientan medidas eficaces para identificar, evaluar y mitigar los riesgos de los sistemas de inteligencia artificial a nivel internacional, así como la incorporación de mecanismos de retroalimentación y sensibilización pública sobre su uso adecuado.
Enfatiza la protección de la privacidad y la promoción de la transparencia y la responsabilidad en todas las etapas de los sistemas de IA, además de la investigación y cooperación internacional para abordar los efectos en el empleo y cerrar la brecha digital de género.
Al revisar con detenimiento las buenas intenciones que contempla la Resolución, que en todo caso son un buen comienzo, surgen inquietudes sobre el cómo se materializaran, pues no precisa cuáles sistemas de IA no se podrán utilizar, cuál es el nivel de riesgo para los derechos humanos que justificaría la no utilización de estos sistemas, cuál es el alcance de un “riesgo indebido”, si un sistema de inutilización o eliminará en caso de que atente contra los derechos humanos. Lo mismo, discurre, frente “los sistemas seguros”, cuya definición o alcance no contempla.
Probablemente futuras resoluciones de la Asamblea General buscarán alcanzar acuerdos más específicos, que efectivicen y tracen una estrategia de ejecución.
Por su parte, la Unión Europea también mostró avances legislativos sobre IA, aprobando el pasado 13 de marzo un proyecto normativo en la materia, el cual, tras algunos trámites, se prevé que entre en vigor en mayo o junio. La normativa permitirá o prohibirá el uso de la IA en función del riesgo que genera para las personas, se aplicará en fases y contempla multas de hasta 35 millones de euros a quien la quebrante.
Prohíbe de manera concreta los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual; la utilización de sistemas que puntúan a las personas en función de su comportamiento o características personales; la IA capaz de manipular el comportamiento humano; los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales; la utilización de sistemas de IA en los centros de trabajo o las escuelas que pueden reconocer las emociones.
En cuanto a la IA generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google, dispone que deban cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se generaron a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
Este proyecto, denota mayor precisión de los conceptos que utiliza, así como, de la aplicación y prohibición de la IA y consecuencias concretas ante su incumplimiento, por cuanto en el corto plazo, promete dar mayores luces en la materia y mejores resultados.