Regulación de la inteligencia artificial: una imperiosa cuestión ética, social y económica

Economia
Lectura

La inteligencia artificial (IA) es un conjunto de tecnologías que ha revolucionado la vida del hombre y de la sociedad, que posee un desarrollo vertiginoso y una vastedad de aplicaciones con grandes

beneficios económicos y sociales, pero que trae en su bagaje una gran carga de incertidumbre, riesgos y desafíos.

Hace aflorar resistencias, críticas y temores, en parte, bien fundados.Es imperioso un encuadramiento jurídico global que garantice una tecnología adecuada a las necesidades humanas, y sea confiable y ética.

Nos encontramos en un mundo organizado y parametrizado por algoritmos; están alrededor, nos asisten a través de todo tipo de dispositivos electrónicos, e incluso los aplicamos inconscientemente. Para encontrar una palabra en este escrito solo debo pulsar el comando Ctrl+F, y en segundos un algoritmo de búsqueda de coincidencia de patrones la localiza y señala. Sin embargo, como el 97,7 % de la población, ignoro cómo interpretar esta tecnología.

La ignorancia acrecienta el miedo

Se teme a la capacidad de la IA de aprender por si (machine learning) a partir de datos y algoritmos; que pueda crear, planificar y resolver problemas con una potencia cognitiva y velocidad muy superior a la del ser humano, que pueda vencer en múltiples tableros como lo ha hecho en el ajedrez (Deep Blue contra Kasparov) o el Go (sistema AlphaGo contra Lee Sedol).

Garry Kasparov juega con la computadora deep junior en Nueva York. Y pierde.
Garry Kasparov juega con la computadora deep junior en Nueva York. Y pierde.

Se teme que supere al hombre, pues obtiene mejores calificaciones en exámenes universitarios; diagnostica con precisión enfermedades o infecciones; realiza análisis tomográficos, operaciones quirúrgicas y reconocimientos faciales imposibles de igualar por parte de ser humano alguno y quizá llegue a desplazarle como centro de sus decisiones y conducir así a un horizonte impredecible.

BANER MTV 1

Esa enorme potencialidad para codificar información de gran número de datos y llevar a cabo infinitas combinaciones y otras proezas, tuvo remoto origen en la Inteligencia Humana.

La hija de lord Byron​

Todo comenzó con el “I Ching” o “Libro de las mutaciones” de hace 3000 años que alude al sistema binario, de ceros y unos, en lugar de los diez del sistema decimal. La idea fue recogida siglos más tarde por Gottfried Wilhelm Leibniz (1646-1716) y completada por George Boole y Claude Shannon, abriéndose así la senda de la información y la computación.

Llega 1843, y una mujer, hija del poeta Lord Byron, Ada Lovelace, matemática, con su trabajo con la Máquina Analítica diseñada por Charles Babbage, sienta las bases teóricas de la programación y crea el primer algoritmo informático procesado automáticamente por una máquina. Fue la primera programadora de la historia.

El algoritmo permite resolver un problema o tarea en varios pasos y se halla instalado definitivamente en nuestra vida cotidiana. Acaba, incluso de deslumbrar con el ChatGPT (Generative Pre-trained Transformer) y su capacidad de generar texto e imágenes, y responder preguntas a increíble velocidad.

Se autodefine como Robot Cibernético y entre otras habilidades, puede suministrar información y auxiliar, colaborar o impulsar la organización del pensamiento, crear metodologías de aprendizaje, facilitar la investigación o el análisis y la exposición de los conocimientos.

Un teléfono inteligente con acceso al ChatGPT
Un teléfono inteligente con acceso al ChatGPT

Se afirma, asimismo, que tiene imperfecciones, inexactitudes y falencias. Por tanto, como descubrimiento, invención, o idea disruptiva, genera críticas y temor a eventuales riesgos que podría aparejar. Por ello, el 29 de marzo pasado, miles de expertos, intelectuales, historiadores, empresarios y personalidades de reputación internacional, en una carta abierta publicada por el Future of Life Institute, solicitaron una moratoria de al menos seis meses en el entrenamiento de sistemas más potentes que el lenguaje generativo de OpenAI.

Han argumentado la existencia de posibles riesgos para la humanidad, como desinformación, reemplazo de empleos, desarrollo de mentes no humanas que nos superen en inteligencia, y han reclamado protocolos de seguridad compartidos y supervisados por expertos externos e independientes para el diseño y desarrollo de la IA avanzada.

Algunas de las empresas desarrolladoras expresaron que implicaría un retraso para el progreso y que no era prácticamente viable, y además que ellas mismas se basaban en principios éticos, de equidad, seguridad, privacidad y transparencia, y colaboraban con gobiernos, organizaciones y otras empresas para desarrollar estándares y normas.

La misiva fue una vía muerta

Los riesgos de la IA existen, lo que no existe es la tecnología para gobernarlos Determinados riesgos de los tantos que se han venido señalado en distintos lugares del mundo por prestigiosos científicos y analistas, resultan tan innegables que hasta el mismo sistema los reconoce. Existe, por ejemplo, riesgo de manipulación de los datos utilizados por entrenar la tecnología y que se direccionen y conduzcan a un sesgo o a decisiones enderezadas con ciertos propósitos. Si se tratara de procesos no transparentes en los algoritmos, el riesgo que se produzcan violaciones a la privacidad y seguridad de las personas, y que la automatización ocasione pérdida de puestos de trabajo, con consecuencias económicos y personales.

Advierten científicos, intelectuales, ex funcionarios de empresas desarrolladoras, y demás que, si se llegare a superar la capacidad cognitiva del hombre y que la IA sea super inteligente, se estaría frente a impredecibles consecuencias.

Tantos posibles riesgos han preocupado a las autoridades y organizaciones nacionales de distintos países, algunos de los cuales como Corea del Sur, India, Japón, Australia y Singapur han establecido estrategias para el desarrollo y el control de la tecnologia; China ambiciona ser líder en la materia en 2030; EE. UU. desde 2016 dispuso iniciativas a nivel sectorial y regional, y ha elaborado una guía para su regulación en lo federal; Canadá desde 2017 impulsa la investigación e innovación, y Francia se ha enfocado en el impacto y desafío para el empleo.

Las imágenes del Papa Francisco recreadas por la inteligencia artificial.
Las imágenes del Papa Francisco recreadas por la inteligencia artificial.

En Sudamérica solo se encuentran iniciativas sobre ética y gobernanza, o Consejos Asesores o Grupos Interinstitucionales, como lo han hecho Argentina, Uruguay, Brasil, Chile y Colombia.

España, en cambio, ha avanzado con el dictado de la primera regulación positiva del uso de la inteligencia artificial para administraciones públicas y empresas, a través de la ley 15/2022, que se refiere a algoritmos involucrados en la toma de decisiones, la minimización de sesgos, a la transparencia y a promover un uso ético, confiable y respetuoso de los derechos.

También se han ocupado de la IA la Iglesia Católica en distintas conferencias y en la encíclica Fratelli Tutti (2020); la Organización Internacional del Trabajo, en el Informe “Inteligencia artificial y futuro del trabajo”; la UNESCO con su “Recomendación sobre la Ética de la Inteligencia Artificial” de 2021, que es el primer marco ético de valores y principios universales comunes para el desarrollo y aplicación de la IA; el Grupo Asesor sobre Inteligencia Artificial del Secretario General (GAIA) de las Naciones Unidas del 2020, con recomendaciones estratégicas sobre oportunidades y riesgos; y la Asociación Mundial para la Inteligencia Artificial (GPAI), iniciativa multilateral en apoyo a la investigación y el intercambio de buenas prácticas.

La Unión Europea pasó a la acción

Se trata de una regulación que no solo es pionera sino una verdadera matriz indispensable para futuras legislaciones.

Días atrás, en Estrasburgo, el Parlamento Europeo ha dado un trascendente paso en la concreción de regular la IA al aprobar el proyecto que en abril de 2021 elaboró la Unión Europea, con una visión integral y fundado en valores y principios europeos. Ha sido el primer cuerpo de disposiciones armonizadas y el primer instrumento normativo mundial. Tiene por finalidad estimular el desarrollo de una IA ética y confiable, y a fomentar el uso voluntario de códigos de conducta y etiquetas de calidad para los sistemas no sujetos a obligaciones.

Uno de sus más importantes focos está constituido por los riesgos, a los que diferencia en categorías o niveles. Considera como inaceptables a los que manipulan el comportamiento humano, explotan las vulnerabilidades personales o utilizan la identificación biométrica con fines de puntuación social o control masivo, y los prohíbe.

Inteligencia Artificial, ilustración Mariano Vior
Inteligencia Artificial, ilustración Mariano Vior

Riesgos Altos son los utilizados en sectores o contextos sensibles como la salud, la educación, el empleo, la justicia o la seguridad pública, y se los somete a estrictas obligaciones antes de ser introducidos. Riesgos Limitados, son los que implican una interacción con los usuarios humanos como los chatbots, para los que se establecen limitadas obligaciones de transparencia e información, para garantizar que los usuarios sean conscientes que interactúan con un sistema de IA y no con un humano. Finalmente los Riesgos Mínimos, son los de insignificante o nulo impacto en los derechos fundamentales y la seguridad de las personas, por lo cual no se les sujeta a obligación alguna.

El trascendente rol que la IA ha adquirido en la sociedad, la educación, la política y en otros múltiples escenarios torna imperiosa una regulación universal, adoptada por todos los países de la tierra, a fin de que la gobierne y someta a supervisión humana. No podría quedar librada a los países aisladamente porque a medida que su complejidad avanza, al mismo tiempo los riesgos hacen lo propio.

Existe premura; no se puede proteger al hombre y sus derechos fundamentales con un derecho que marche mansamente detrás de la realidad.

Se impone un rápido reflejo de la Inteligencia Humana. Tal vez, el 19 de mayo de 2023 se convierta en una fecha memorable.

El Grupo de los Siete integrado por algunos de los países más importantes del mundo, junto a representantes del Consejo Europeo, han acordado abordar los riesgos de la Inteligencia Artificial (IA) generativa y encarar su regulación.

Este consenso se ha adoptado en Hiroshima, Japón, una ciudad que el 6 de agosto de 1945 fue arrasada por una bomba nuclear.

El aniquilamiento de cientos de miles de vidas humanas no habría tenido lugar de haber estado en vigor el Tratado de No Proliferación de Armas Nucleares, que recién entró a regir, aprobado por 191 paises, el 5 de marzo de 1970, esto es, treinta y cinco años más tarde.

Triste lección

Curiosamente, acuden a mi memoria los versos finales la canción de John Lennon “Juegos del Pensamiento” (Mind Games), que al decir “love is the answer…” (el amor es la respuesta) hace pensar que ante los avatares y temores de esos juegos, el derecho es la respuesta.