abril 23, 2024

LA ONU adoptó una resolución pionera sobre la IA

BANNER-

Por Lilibeth Farkas Rivera  · Gerente de Asuntos Legales

 

La Asamblea General de la ONU adoptó el 13 de marzo de este año una resolución histórica para regular y promover el uso seguro y confiable de la Inteligencia Artificial (IA) en beneficio del desarrollo sostenible. La resolución fue liderada por Estados Unidos y respaldada por más de 120 Estados miembros, es decir, fue adoptada por consenso con un golpe de mazo y sin votación.
 
La Resolución se enfoca en los siguientes aspectos: (i) solicita a los Estados que se abstengan de utilizar sistemas de IA que no cumplan con las normas internacionales de derechos humanos o que los pongan en riesgo, (ii) resuelve promover sistemas seguros, protegidos y fiables de IA, (iii) reconoce el potencial de la IA para acelerar el progreso hacia los Objetivos de Desarrollo Sostenible, en sus tres dimensiones: económica, social y ambiental, y (iv) busca cerrar la brecha digital entre países desarrollados y en desarrollo.
 
La Resolución (a diferencia de las resoluciones del Consejo de Seguridad), no es jurídicamente vinculante, su utilidad, es servir de indicador del sentir mundial, en este caso, de la preocupación por los riesgos asociados con la IA y la necesidad de una regulación ética y responsable.IMG-DENTRO2
 
También alienta a los Estados Miembros y a una variedad de interesados, incluyendo el sector privado, organizaciones internacionales, sociedad civil, medios de comunicación, academia y comunidad técnica, a colaborar en la elaboración y apoyo de enfoques y marcos normativos para promover entornos internacionales propicios para soluciones basadas en IA segura y fiable; para el fortalecimiento de la inversión en capacitación y en la elaboración y la aplicación de salvaguardias eficaces, incluidas seguridad física, seguridad de los sistemas de inteligencia artificial y gestión de los riesgos durante todo el ciclo vital de los sistemas de IA.
 
Promueve la adopción de enfoques regulatorios y de gobernanza nacionales para respaldar la innovación y la inversión en inteligencia artificial, junto con sistemas seguros y fiables. Se alientan medidas eficaces para identificar, evaluar y mitigar los riesgos de los sistemas de inteligencia artificial a nivel internacional, así como la incorporación de mecanismos de retroalimentación y sensibilización pública sobre su uso adecuado.
 
Enfatiza la protección de la privacidad y la promoción de la transparencia y la responsabilidad en todas las etapas de los sistemas de IA, además de la investigación y cooperación internacional para abordar los efectos en el empleo y cerrar la brecha digital de género.
 
Al revisar con detenimiento las buenas intenciones que contempla la Resolución, que en todo caso son un buen comienzo, surgen inquietudes sobre el cómo se materializaran, pues no precisa cuáles sistemas de IA no se podrán utilizar, cuál es el nivel de riesgo para los derechos humanos que justificaría la no utilización de estos sistemas, cuál es el alcance de un “riesgo indebido”, si un sistema de inutilización o eliminará en caso de que atente contra los derechos humanos. Lo mismo, discurre, frente “los sistemas seguros”, cuya definición o alcance no contempla.
 
Probablemente futuras resoluciones de la Asamblea General buscarán alcanzar acuerdos más específicos, que efectivicen y tracen una estrategia de ejecución.
 
Por su parte, la Unión Europea también mostró avances legislativos sobre IA, aprobando el pasado 13 de marzo un proyecto normativo en la materia, el cual, tras algunos trámites, se prevé que entre en vigor en mayo o junio. La normativa permitirá o prohibirá el uso de la IA en función del riesgo que genera para las personas, se aplicará en fases y contempla multas de hasta 35 millones de euros a quien la quebrante.IMG-DENTRO
 
Prohíbe de manera concreta los sistemas de categorización biométrica por creencias políticas, religiosas, filosóficas o por su raza y orientación sexual; la utilización de sistemas que puntúan a las personas en función de su comportamiento o características personales; la IA capaz de manipular el comportamiento humano; los sistemas para expandir o crear bases de datos faciales captando datos de manera indiscriminada a través de internet o de grabaciones audiovisuales; la utilización de sistemas de IA en los centros de trabajo o las escuelas que pueden reconocer las emociones.
 
En cuanto a la IA generativa, en los que se basan modelos como ChatGPT, de la empresa OpenAI o Bard, de Google, dispone que deban cumplir criterios de transparencia, como especificar si un texto, una canción o una fotografía se generaron a través de la IA y garantizar que los datos que se han empleado para entrenar a los sistemas respetan los derechos de autor.
 
Este proyecto, denota mayor precisión de los conceptos que utiliza, así como, de la aplicación y prohibición de la IA y consecuencias concretas ante su incumplimiento, por cuanto en el corto plazo, promete dar mayores luces en la materia y mejores resultados.
 
 
 
Lilibeth Farkas Rivera
Lilibeth Farkas Rivera

Abogada, especialista en derecho Administrativo, Comercial y Minero Energético, maestría en Regulación Energética y estudios en gobierno corporativo. Experiencia de más de quince años en gerenciamiento de áreas legales de empresas del sector público y privado, brindado asesoría jurídica a todas las áreas de las Compañías, a los procesos de contratación y coordinando los procesos judiciales; implementación y manejo programas de gobiernos corporativos en calidad de oficial de cumplimiento y acompañamiento a la alta dirección en la definición de políticas e indicadores para la ejecución de la estrategia de la Empresa.