Urban Journalism Institute

REGULAR LO IMPREVISTO
Un año con la IA 

©Google DeepMind

Esta imagen representa cómo la responsabilidad debe ser el núcleo para los sistemas de inteligencia artificial. Fue creada por Champ Panupong Techawongthawonas como parte del proyecto Visualising AI de Google DeepMind. 

En el vertiginoso ámbito de la inteligencia artificial (IA), un actor destacado ha acaparado el protagonismo el año pasado: ChatGPT, destacado como tendencia principal en el Municipal Forecast 2023

Lanzado el 30 de noviembre de 2022, este transfor­mador generativo preentrenado (GPT, por sus siglas en inglés) se ha disparado en popularidad, con la impresionante cifra de 180 millones de usuarios y 1.600 millones de visitas en diciembre de 2023. A los cinco días de su presentación, ChatGPT alcanzó el millón de usuarios, superando las tasas de crecimien­to de gigantes tecnológicos como Spotify (que tardó cinco meses en alcanzar su primer millón de usuarios en 2008) y Twitter, que tardó dos años en lograr el mismo hito en 2006. Sólo Threads, el servicio de redes sociales de Meta Platforms, lanzado en julio de 2023, ha batido ese récord al conseguir su primer millón de usuarios en una hora.

Según Similarweb, aproximadamente el 15 % de la base de usuarios de ChatGPT procede de Estados Uni­dos, seguido de cerca por la India, con casi el 8 %, y Fili­pinas, Japón y Canadá, con alrededor del 3 % cada uno. En cuanto a la composición de la audiencia, la base de usuarios está formada por un 55,88 % de hombres y un 44,12 % de mujeres. El grupo de edad más nu­meroso es el de 25 a 34 años (33,43 %), seguido de cerca por el de 18 a 24 años (28,07 %). Los principales temas de interés para los visitantes de ChatGPT son la programación y el software para desarrolladores, la electrónica y la tecnología informática y las consolas de videojuegos.

A medida que la influencia de la IA impregna nuestra vida cotidiana, surge un clamor mundial a favor de una mayor regulación. El Informe anual sobre el índice de inteligencia artificial de la Universidad de Stanford destaca que las leyes o los proyectos de ley de 127 países incluyen “inteligencia artificial”, lo que revela un notable aumento, de una sola propuesta legislati­va en 2016 a 37 en 2022. Estados Unidos, Portugal, España, Italia, Rusia, Bélgica, el Reino Unido, Austria, República de Corea y Filipinas son los diez países con más esfuerzos reguladores entre 2016 y 2022.

El 9 de diciembre de 2023 se alcanzó un hito histó­rico al acordar provisionalmente el Parlamento Europeo con el Consejo Europeo la Ley de la inte­ligencia artificial de la Unión Europea, la primera ley integral de la IA del mundo. La Comisión Euro­pea propuso el proyecto de ley en abril de 2021, y el Parlamento Europeo lo aprobó en junio de 2023. Se convertirá en ley de la UE antes de las elecciones al Parlamento Europeo de junio de 2024. La entrada en vigor de la normativa está prevista para 2026, tras un periodo transitorio de 18 meses. El objetivo principal es garantizar que los sistemas de IA en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.

La Ley de la UE clasifica los sistemas de la IA en función del riesgo, imponiendo obligaciones a los proveedores e implementadores, al tiempo que prohíbe específi­camente los considerados “sistemas de IA de riesgo inaceptable” y evalúa con rigor el impacto de los clasifi­cados como “sistemas de alto riesgo”.

Los sistemas de IA de riesgo inaceptable se consideran una amenaza para las personas, incluidas la manipu­lación cognitivo-conductual de los individuos o grupos vulnerables específicos, la identificación y categoriza­ción biométrica de las personas y la calificación social que clasifica a las personas en función de su compor­tamiento, estatus socioeconómico o características personales.

Los sistemas de alto riesgo que repercutan nega­tivamente en la seguridad o los derechos fundamentales se someterán a una evaluación antes de entrar en el mercado y a lo largo de su ciclo de vida: algunos ejemplos son los sistemas de IA en juguetes, aviones, automóviles, dispositivos médicos y ascensores.

La IA generativa y de propósito general, como ChatGPT, debe cumplir los requisitos de transparencia y divulgar los contenidos generados mediante la IA. Es­tas medidas permiten a los usuarios tomar decisiones informadas y abarcan los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo, como los deepfakes

Simultáneamente, varios países europeos han impul­sado sus regulaciones nacionales. España anunció la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), estableciéndola como el primer organismo regulador de la IA en la UE. A través de su Ministerio Federal de Educación e Investigación, Alemania dio a conocer un amplio Plan de acción para la inteligencia artificial, con una inver­sión superior a 1.600 millones de euros en investiga­ción y formación en IA. 

China promulgó las Medidas Provisionales para la Gestión de los Servicios de IA Generativa en agosto de 2023. Estas medidas instan a las autori­dades administrativas y a los tribunales de todos los niveles a adoptar una postura reguladora prudente y tolerante hacia la IA, estableciendo un equilibrio entre la innovación y la mitigación de los riesgos relacionados con la IA. También menciona explícita­mente la invasión de la privacidad, la violación de los derechos de propiedad intelectual y la circulación de información falsa. Se prohíbe a los servicios de IA ge­nerar contenidos “que hagan apología del terrorismo o del extremismo, promuevan el odio y la discrimi­nación étnicos, la violencia y la obscenidad, así como información falsa y perjudicial”. 

En su cumbre de Johannesburgo de agosto de 2023, los BRICS acordaron poner en marcha el Grupo de Estudio de la IA del Instituto BRICS de Redes Futuras para desarrollar marcos y normas con un amplio consenso para hacer que las tecnologías de IA sean “más seguras, fiables, controlables y equitativas”. 

En octubre de 2023, Estados Unidos fue testigo de la Orden ejecutiva de la Administración Biden sobre el Desarrollo y Uso Seguro y Digno de Confianza de la Inteligencia Artificial, que hace hincapié en la transparencia y en nuevas normas de conducta, y crea el Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos. 

A finales del mismo mes, el 30 de octubre de 2023, los miembros del G7 suscribieron el Proceso de IA de Hiroshima, que establece los principios rectores y un código de conducta voluntario para los desarrolladores de la inteligencia artificial. La declaración de los líderes del G7 reforzó “la necesidad de gestionar los riesgos y de proteger a las personas, la sociedad y nuestros principios compartidos, incluidos el Estado de derecho y los valores democráticos, manteniendo a la humanidad en el centro”.

La Declaración de los Líderes del G20 de Nueva Delhi reafirmó su compromiso con los principios del grupo de 2019 para aprovechar la IA para el bien público mediante la resolución de retos de manera responsa­ble, inclusiva y centrada en el ser humano, protegiendo al mismo tiempo los derechos y la seguridad de las personas. Aunque no se adoptaron compromisos adi­cionales, los miembros del G20 acordaron seguir “un enfoque regulador/de gobernanza favorable a la innovación” para maximizar los beneficios de la IA y considerar los riesgos asociados.

La Cumbre sobre Seguridad de la IA celebrada en el Rei­no Unido, a la que asistieron casi 30 países en noviem­bre de 2023, concluyó con la Declaración de Bletchley, en la que se insta a los esfuerzos internacionales y nacionales para “construir una comprensión científi­ca compartida y basada en pruebas de los riesgos de la IA”, así como a promover “las políticas respectivas basadas en riesgos en todos los países para garantizar la seguridad”. 

La Cumbre de la Unión Africana de finales de no­viembre de 2023 incluyó el Borrador del Marco Conceptual de la Estrategia Continental sobre la Inteligencia Artificial, cuyo objetivo es dar forma a una estrategia de IA ética y económicamente fructífera para el continente. Entre las iniciativas dignas de mención figuran la aprobación por Ruanda de una Política Nacional de la Inteligencia Artificial y la directiva del gobierno nigeriano, en agosto de 2023, que integra la inteligencia artificial en el plan de estudios de educación primaria del país y formula su estrategia nacional de IA. 

A escala mundial, el 21 de diciembre de 2023, el Órgano Asesor sobre IA del secretario general de las Naciones Unidas presentó su Informe provisional sobre la gobernanza de la IA para la humanidad. El documento aboga por reforzar la gobernanza in­ternacional de la IA, “no sólo para hacer frente a los retos y riesgos, sino para garantizar que aprovecha­mos su potencial de manera que no dejemos a nadie atrás”. Algunas de las funciones de la gobernanza mundial de la IA deberían ser la evaluación periódica del estado de la IA, la armonización de las normas, la seguridad y los marcos de gestión de riesgos, el seguimiento de los riesgos y la coordinación de la respuesta de emergencia, entre otras.

Carme Artigas, copresidenta del Órgano Asesor de la IA, ha declarado: “Dado que la IA es intrínsecamente un asunto internacional por naturaleza, es necesario un enfoque global de un marco de gobernanza que res­pete los derechos humanos y escuche la voz de todos, incluido el Sur Global”. El informe final está previsto para el verano de 2024, antes de la Cumbre del Futuro, y se anima a las partes interesadas a enviar sus comentarios en línea antes del 31 de marzo de 2024.


©Google DeepMind 

Reducir la brecha digital: IA inclusiva 

A medida que nos embarcamos en el viaje hacia 2024, el panorama normativo de la IA está listo para la trans­formación, con el objetivo de impulsar su progreso al tiempo que se garantiza la inclusión y la defensa de los derechos humanos. Este compromiso es crucial para las comunidades marginadas, en particular en el Sur Global. A pesar de los avances tecnológicos, persiste un problema acuciante: la brecha digital. Sorprendente­mente, la Unión Mundial de Telecomunicaciones (UIT) estima que en 2023 habrá 2.600 millones de personas sin acceso a internet. 

Esta desigualdad digital es más pronunciada entre las mujeres de los países de renta baja, que constituyen la mayor parte de la población desconectada. En África, sólo el 32,1 % de las mujeres tiene acceso a internet, lo que contrasta con el 89,5 % de sus homólogas euro­peas. Para agravar aún más la brecha, las disparidades de género dentro de África son evidentes, con un 42,2 % de hombres con acceso a internet frente a un 32,1 % de mujeres. Abordar estas disparidades es un imperativo tecnológico y un paso fundamental hacia la creación de un futuro digital equitativo para todos.

La IA en los gobiernos locales

Los gobiernos locales afrontan activamente los retos que plantea el auge de la IA, con iniciativas locales reguladoras locales que están configurando el pano­rama. En octubre de 2023, el alcalde de Nueva York, Eric Adams, publicó el Plan de Acción de Inteligencia Artificial de la Ciudad de Nueva York, el primero de este tipo para una gran ciudad estadounidense. Dirigido a los organismos municipales y a los emplea­dos de la administración, el plan tiene como objetivo crear conocimientos y habilidades relacionados con la IA para evaluar cuidadosamente las herramientas de IA y los riesgos asociados con esta, apoyando la integración fluida de estas tecnologías en los servicios de la administración municipal.

Un mes antes, en septiembre de 2023, el gobernador de Pensilvania, Josh Shapiro, y el gobernador de Cali­fornia, Gavin Newsom, firmaron sendas órdenes ejecu­tivas sobre el uso de la inteligencia artificial generativa (GenAI, por sus siglas en inglés). La orden ejecutiva de California insta a las agencias estatales a fomentar un ecosistema de innovación seguro y responsable, apro­vechando los sistemas y herramientas de IA para los mejores usos en beneficio de los californianos. Esto in­cluye la publicación de directrices para la contratación del sector público, los protocolos de uso y la formación obligatoria para el uso de GenAI.

La normativa reconoce a California como sede de 35 de las 50 empresas de IA más importantes del mundo, con San Francisco y San José a la cabeza, contribuyen­do significativamente con una cuarta parte de todas las patentes, ponencias en congresos y empresas de IA del mundo. Es de destacar que ambas ciudades han publicado sus propias directrices sobre IA (San Jose Generative AI Guidelines San Francisco Generative AI Guidelines). Sin embargo, la orden de Newsom subraya la necesidad de un despliegue y una regulación cuidadosos de la GenAI para mitigar y protegerse contra una nueva generación de riesgos. 

Más allá de las acciones legislativas y las órdenes ejecu­tivas, los gobiernos locales están lidiando cada vez más con las inquietudes acerca de los trabajadores públicos que utilizan la IA, con el riesgo potencial de compartir información sensible e introducir amenazas de ciberse­guridad. En respuesta al creciente uso de herramientas de IA para la creación de contenidos centrados en el ciudadano, la ciudad de Boston publicó en mayo de 2023 unas directrices provisionales para el uso de la IA generativa como recurso para sus empleados. Adoptando un enfoque más restrictivo, el estado de Maine, en junio de 2023, emitió una directiva, a través del Maine Information Technology, en la que se establecía una moratoria de al menos seis meses sobre la GenAI. Esta directiva prohíbe el uso de tecnologías como ChatGPT en cualquier dispositivo conectado a la red del estado de Maine. 

Buenos Aires (Argentina) desarrolló un Plan de IA en 2021 como estrategia global para generar un impac­to positivo a través del uso y desarrollo de la inteligencia artificial. Como parte del plan se publicó una guía práctica sobre el desarrollo ético de los sistemas de IA. 

Al otro lado del Atlántico, el Ayuntamiento de Barcelona adoptó una postura proactiva al crear el Consejo Asesor sobre Inteligencia Artificial, Ética y Derechos Digitales en abril de 2023. Formado por 15 expertos, su función es asesorar y asistir al Ayunta­miento en el uso de la inteligencia artificial para el bien común y evaluar el desarrollo de la estrategia municipal de algoritmos y datos para la promoción ética de la inteligencia artificial, entre otras responsabilidades. 

Barcelona fue pionera con la aprobación, en junio de 2020, de una declaración institucional en favor de mo­delo tecnológico fiable y ético. Unos meses después, en abril de 2021, se aprobó una medida de gobierno mu­nicipal para el fomento ético de la inteligencia artificial, centrada en algoritmos y datos. Barcelona es también una de las ciudades fundadoras de la Coalición de Ciudades por los Derechos Digitales, una coalición liderada por ciudades para promover y proteger los derechos digitales, que trabaja también en la cuestión de la IA.

La Comunidad de Práctica de Ciudades Digitales de CGLU, presidida por la ciudad de Bilbao, elabora el Estudio sobre ciudades inteligentes. Su edición 2023 se centra en las ciudades como ecosistemas impulsados por la innovación, espacios de colaboración, creatividad e innovación que impulsan la I+D+i desde una perspectiva público-privada y contribuyen a la conse­cución de la Agenda 2030 de las Naciones Unidas.

A principios de 2023, un esfuerzo de colaboración en­tre Barcelona, Rotterdam, Eindhoven, Mannheim, Bolo­nia, Bruselas y Sofía dio como resultado el lanzamiento de un Registro municipal transparente y ético para algoritmos, que mejora los servicios públicos. Esta iniciativa permite a los ciudadanos acceder a diversos datos y proporciona información transparente sobre las herramientas algorítmicas y sus fines previstos.

Estas iniciativas reguladoras, ya sobre el papel, están ahora listas para dar forma a las acciones concre­tas que definirán el uso responsable y ético de la IA. Permanezca atento a nuestro seguimiento de estos esfuerzos continuados.

Cofounded by the European Union This publication was produced with the financial support of the European Union. Its contents are the sole responsibility of UCLG and do not necessarily reflect the views of the European Union.