REGULAR LO IMPREVISTO
Un año con la IA
©Google DeepMind
Esta imagen representa cómo la responsabilidad debe ser el núcleo para los sistemas de inteligencia artificial. Fue creada por Champ Panupong Techawongthawonas como parte del proyecto Visualising AI de Google DeepMind.
En el vertiginoso ámbito de la inteligencia artificial (IA), un actor destacado ha acaparado el protagonismo el año pasado: ChatGPT, destacado como tendencia principal en el Municipal Forecast 2023.
Lanzado el 30 de noviembre de 2022, este transformador generativo preentrenado (GPT, por sus siglas en inglés) se ha disparado en popularidad, con la impresionante cifra de 180 millones de usuarios y 1.600 millones de visitas en diciembre de 2023. A los cinco días de su presentación, ChatGPT alcanzó el millón de usuarios, superando las tasas de crecimiento de gigantes tecnológicos como Spotify (que tardó cinco meses en alcanzar su primer millón de usuarios en 2008) y Twitter, que tardó dos años en lograr el mismo hito en 2006. Solo Threads, el servicio de redes sociales de Meta Platforms, lanzado en julio de 2023, ha batido ese récord al conseguir su primer millón de usuarios en una hora.
Según Similarweb, aproximadamente el 15 % de la base de usuarios de ChatGPT procede de Estados Unidos, seguido de cerca por la India, con casi el 8 %, y Filipinas, Japón y Canadá, con alrededor del 3 % cada uno. En cuanto a la composición de la audiencia, la base de usuarios está formada por un 55,88 % de hombres y un 44,12 % de mujeres. El grupo de edad más numeroso es el de 25 a 34 años (33,43 %), seguido de cerca por el de 18 a 24 años (28,07 %). Los principales temas de interés para los visitantes de ChatGPT son la programación y el software para desarrolladores, la electrónica y la tecnología informática y las consolas de videojuegos.
A medida que la influencia de la IA impregna nuestra vida cotidiana, surge un clamor mundial a favor de una mayor regulación. El Informe Anual sobre el Índice de Inteligencia Artificial de la Universidad de Stanford destaca que las leyes o los proyectos de ley de 127 países incluyen “inteligencia artificial”, lo que revela un notable aumento, de una sola propuesta legislativa en 2016 a 37 en 2022. Estados Unidos, Portugal, España, Italia, Rusia, Bélgica, el Reino Unido, Austria, República de Corea y Filipinas son los diez países con más esfuerzos reguladores entre 2016 y 2022.
El 9 de diciembre de 2023 se alcanzó un hito histórico al acordar provisionalmente el Parlamento Europeo con el Consejo Europeo la Ley de la inteligencia artificial de la Unión Europea, la primera ley integral de la IA del mundo. La Comisión Europea propuso el proyecto de ley en abril de 2021, y el Parlamento Europeo lo aprobó en junio de 2023. Se convertirá en ley de la UE antes de las elecciones al Parlamento Europeo de junio de 2024. La entrada en vigor de la normativa está prevista para 2026, tras un periodo transitorio de 18 meses. El objetivo principal es garantizar que los sistemas de IA en la UE sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente.
La Ley de la UE clasifica los sistemas de la IA en función del riesgo, imponiendo obligaciones a los proveedores e implementadores, al tiempo que prohíbe específicamente los considerados “sistemas de IA de riesgo inaceptable” y evalúa con rigor el impacto de los clasificados como “sistemas de alto riesgo”.
Los sistemas de IA de riesgo inaceptable se consideran una amenaza para las personas, incluidas la manipulación cognitivo-conductual de los individuos o grupos vulnerables específicos, la identificación y categorización biométrica de las personas y la calificación social que clasifica a las personas en función de su comportamiento, estatus socioeconómico o características personales.
Los sistemas de alto riesgo que repercutan negativamente en la seguridad o los derechos fundamentales se someterán a una evaluación antes de entrar en el mercado y a lo largo de su ciclo de vida: algunos ejemplos son los sistemas de IA en juguetes, aviones, automóviles, dispositivos médicos y ascensores.
La IA generativa y de propósito general, como ChatGPT, debe cumplir los requisitos de transparencia y divulgar los contenidos generados mediante la IA. Estas medidas permiten a los usuarios tomar decisiones informadas y abarcan los sistemas de IA que generan o manipulan contenidos de imagen, audio o vídeo, como los deepfakes.
Simultáneamente, varios países europeos han impulsado sus regulaciones nacionales. España anunció la creación de la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), estableciéndola como el primer organismo regulador de la IA en la UE. A través de su Ministerio Federal de Educación e Investigación, Alemania dio a conocer un amplio Plan de Acción para la Inteligencia Artificial, con una inversión superior a 1.600 millones de euros en investigación y formación en IA.
China promulgó las Medidas Provisionales para la Gestión de los Servicios de IA Generativa en agosto de 2023. Estas medidas instan a las autoridades administrativas y a los tribunales de todos los niveles a adoptar una postura reguladora prudente y tolerante hacia la IA, estableciendo un equilibrio entre la innovación y la mitigación de los riesgos relacionados con la IA. También menciona explícitamente la invasión de la privacidad, la violación de los derechos de propiedad intelectual y la circulación de información falsa. Se prohíbe a los servicios de IA generar contenidos “que hagan apología del terrorismo o del extremismo, promuevan el odio y la discriminación étnicos, la violencia y la obscenidad, así como información falsa y perjudicial”.
En su cumbre de Johannesburgo de agosto de 2023, los BRICS acordaron poner en marcha el Grupo de Estudio de la IA del Instituto BRICS de Redes Futuras para desarrollar marcos y normas con un amplio consenso para hacer que las tecnologías de IA sean “más seguras, fiables, controlables y equitativas”.
En octubre de 2023, Estados Unidos fue testigo de la Orden ejecutiva de la Administración Biden sobre el Desarrollo y Uso Seguro y Digno de Confianza de la Inteligencia Artificial, que hace hincapié en la transparencia y en nuevas normas de conducta, y crea el Instituto de Seguridad de la Inteligencia Artificial de Estados Unidos.
A finales del mismo mes, el 30 de octubre de 2023, los miembros del G7 suscribieron el Proceso de IA de Hiroshima, que establece los principios rectores y un código de conducta voluntario para los desarrolladores de la inteligencia artificial. La declaración de los líderes del G7 reforzó “la necesidad de gestionar los riesgos y de proteger a las personas, la sociedad y nuestros principios compartidos, incluidos el Estado de derecho y los valores democráticos, manteniendo a la humanidad en el centro”.
La Declaración de los Líderes del G20 de Nueva Delhi reafirmó su compromiso con los principios del grupo de 2019 para aprovechar la IA para el bien público mediante la resolución de retos de manera responsable, inclusiva y centrada en el ser humano, protegiendo al mismo tiempo los derechos y la seguridad de las personas. Aunque no se adoptaron compromisos adicionales, los miembros del G20 acordaron seguir “un enfoque regulador/de gobernanza favorable a la innovación” para maximizar los beneficios de la IA y considerar los riesgos asociados.
La Cumbre sobre Seguridad de la IA celebrada en el Reino Unido, a la que asistieron casi 30 países en noviembre de 2023, concluyó con la Declaración de Bletchley, en la que se insta a los esfuerzos internacionales y nacionales para “construir una comprensión científica compartida y basada en pruebas de los riesgos de la IA”, así como a promover “las políticas respectivas basadas en riesgos en todos los países para garantizar la seguridad”.
La Cumbre de la Unión Africana de finales de noviembre de 2023 incluyó el Borrador del Marco Conceptual de la Estrategia Continental sobre la Inteligencia Artificial, cuyo objetivo es dar forma a una estrategia de IA ética y económicamente fructífera para el continente. Entre las iniciativas dignas de mención figuran la aprobación por Ruanda de una Política Nacional de la Inteligencia Artificial y la directiva del gobierno nigeriano, en agosto de 2023, que integra la inteligencia artificial en el plan de estudios de educación primaria del país y formula su estrategia nacional de IA.
A escala mundial, el 21 de diciembre de 2023, el Órgano Asesor sobre IA del secretario general de las Naciones Unidas presentó su Informe provisional sobre la Gobernanza de la IA para la Humanidad. El documento aboga por reforzar la gobernanza internacional de la IA, “no solo para hacer frente a los retos y riesgos, sino para garantizar que aprovechamos su potencial de manera que no dejemos a nadie atrás”. Algunas de las funciones de la gobernanza mundial de la IA deberían ser la evaluación periódica del estado de la IA, la armonización de las normas, la seguridad y los marcos de gestión de riesgos, el seguimiento de los riesgos y la coordinación de la respuesta de emergencia, entre otras.
Carme Artigas, copresidenta del Órgano Asesor de la IA, ha declarado: “Dado que la IA es intrínsecamente un asunto internacional por naturaleza, es necesario un enfoque global de un marco de gobernanza que respete los derechos humanos y escuche la voz de todos, incluido el Sur Global”. El informe final está previsto para el verano de 2024, antes de la Cumbre del Futuro, y se anima a las partes interesadas a enviar sus comentarios en línea antes del 31 de marzo de 2024.
Reducir la brecha digital: IA inclusiva
A medida que nos embarcamos en el viaje hacia 2024, el panorama normativo de la IA está listo para la transformación, con el objetivo de impulsar su progreso al tiempo que se garantiza la inclusión y la defensa de los derechos humanos. Este compromiso es crucial para las comunidades marginadas, en particular en el Sur Global. A pesar de los avances tecnológicos, persiste un problema acuciante: la brecha digital. Sorprendentemente, la Unión Mundial de Telecomunicaciones (UIT) estima que en 2023 habrá 2.600 millones de personas sin acceso a internet.
Esta desigualdad digital es más pronunciada entre las mujeres de los países de renta baja, que constituyen la mayor parte de la población desconectada. En África, solo el 32,1 % de las mujeres tiene acceso a internet, lo que contrasta con el 89,5 % de sus homólogas europeas. Para agravar aún más la brecha, las disparidades de género dentro de África son evidentes, con un 42,2 % de hombres con acceso a internet frente a un 32,1 % de mujeres. Abordar estas disparidades es un imperativo tecnológico y un paso fundamental hacia la creación de un futuro digital equitativo para todos.
La IA en los gobiernos locales
Los gobiernos locales afrontan activamente los retos que plantea el auge de la IA, con iniciativas locales reguladoras que están configurando el panorama. En octubre de 2023, el alcalde de Nueva York, Eric Adams, publicó el Plan de Acción de Inteligencia Artificial de la Ciudad de Nueva York, el primero de este tipo para una gran ciudad estadounidense. Dirigido a los organismos municipales y a los empleados de la administración, el plan tiene como objetivo crear conocimientos y habilidades relacionados con la IA para evaluar cuidadosamente las herramientas de IA y los riesgos asociados con esta, apoyando la integración fluida de estas tecnologías en los servicios de la administración municipal.
Un mes antes, en septiembre de 2023, el gobernador de Pensilvania, Josh Shapiro, y el gobernador de California, Gavin Newsom, firmaron sendas órdenes ejecutivas sobre el uso de la inteligencia artificial generativa (GenAI, por sus siglas en inglés). La orden ejecutiva de California insta a las agencias estatales a fomentar un ecosistema de innovación seguro y responsable, aprovechando los sistemas y herramientas de IA para los mejores usos en beneficio de los californianos. Esto incluye la publicación de directrices para la contratación del sector público, los protocolos de uso y la formación obligatoria para el uso de GenAI.
La normativa reconoce a California como sede de 35 de las 50 empresas de IA más importantes del mundo, con San Francisco y San José a la cabeza, contribuyendo significativamente con una cuarta parte de todas las patentes, ponencias en congresos y empresas de IA del mundo. Es de destacar que ambas ciudades han publicado sus propias directrices sobre IA (San Jose Generative AI Guidelines y San Francisco Generative AI Guidelines). Sin embargo, la orden de Newsom subraya la necesidad de un despliegue y una regulación cuidadosos de la GenAI para mitigar y protegerse contra una nueva generación de riesgos.
Más allá de las acciones legislativas y las órdenes ejecutivas, los gobiernos locales están lidiando cada vez más con las inquietudes acerca de los trabajadores públicos que utilizan la IA, con el riesgo potencial de compartir información sensible e introducir amenazas de ciberseguridad. En respuesta al creciente uso de herramientas de IA para la creación de contenidos centrados en el ciudadano, la ciudad de Boston publicó en mayo de 2023 unas directrices provisionales para el uso de la IA generativa como recurso para sus empleados. Adoptando un enfoque más restrictivo, el estado de Maine, en junio de 2023, emitió una directiva, a través del Maine Information Technology, en la que se establecía una moratoria de al menos seis meses sobre la GenAI. Esta directiva prohíbe el uso de tecnologías como ChatGPT en cualquier dispositivo conectado a la red del estado de Maine.
Buenos Aires (Argentina) desarrolló un Plan de IA en 2021 como estrategia global para generar un impacto positivo a través del uso y desarrollo de la inteligencia artificial. Como parte del plan se publicó una guía práctica sobre el desarrollo ético de los sistemas de IA.
Al otro lado del Atlántico, el Ayuntamiento de Barcelona adoptó una postura proactiva al crear el Consejo Asesor sobre Inteligencia Artificial, Ética y Derechos Digitales en abril de 2023. Formado por 15 expertos, su función es asesorar y asistir al Ayuntamiento en el uso de la inteligencia artificial para el bien común y evaluar el desarrollo de la estrategia municipal de algoritmos y datos para la promoción ética de la inteligencia artificial, entre otras responsabilidades.
Barcelona fue pionera con la aprobación, en junio de 2020, de una declaración institucional en favor de un modelo tecnológico fiable y ético. Unos meses después, en abril de 2021, se aprobó una medida de gobierno municipal para el fomento ético de la inteligencia artificial, centrada en algoritmos y datos. Barcelona es también una de las ciudades fundadoras de la Coalición de Ciudades por los Derechos Digitales, una coalición liderada por ciudades para promover y proteger los derechos digitales, que trabaja también en la cuestión de la IA.
La Comunidad de Práctica de Ciudades Digitales de CGLU, presidida por la ciudad de Bilbao, elabora el Estudio sobre Ciudades Inteligentes. Su edición 2023 se centra en las ciudades como ecosistemas impulsados por la innovación, espacios de colaboración, creatividad e innovación que impulsan la I+D+i desde una perspectiva público-privada y contribuyen a la consecución de la Agenda 2030 de las Naciones Unidas.
A principios de 2023, un esfuerzo de colaboración entre Barcelona, Rotterdam, Eindhoven, Mannheim, Bolonia, Bruselas y Sofía dio como resultado el lanzamiento de un Registro municipal transparente y ético para algoritmos, que mejora los servicios públicos. Esta iniciativa permite a los ciudadanos acceder a diversos datos y proporciona información transparente sobre las herramientas algorítmicas y sus fines previstos.
Estas iniciativas reguladoras, ya sobre el papel, están ahora listas para dar forma a las acciones concretas que definirán el uso responsable y ético de la IA. Permanezca atento a nuestro seguimiento de estos esfuerzos continuados.
No pierda de vista
Coalición de Ciudades por los Derechos Digitales
En 2024, Toronto y Nueva York acogerán sesiones en línea centradas en la IA generativa, seguidas de directrices para mantener prácticas éticas y proteger a las poblaciones vulnerables. Esta iniciativa se enmarca en el Plan de Trabajo de la Coalición de Ciudades por los Derechos Digitales (CC4DR) para 2024.
En el marco de la CC4DR, el Observatorio Mundial de Inteligencia Artificial Urbana (GOUAI) lanzó la primera edición del Atlas de Inteligencia Artificial Urbana en noviembre de 2023, en el que se recogen las iniciativas de IA de ciudades de todo el mundo. En el Atlas se prevé un crecimiento continuo en 2024.
Ámsterdam, Barcelona y la ciudad de Nueva York, en colaboración con Eurocities, Metropolis, CGLU y ONU-Hábitat, son las fuerzas impulsoras de la Coalición de Ciudades por los Derechos Digitales, creada en noviembre de 2018, que cuenta con más de 50 ciudades desde 2023.
Más información en:
Conferencia Inteligencia Artificial para el Bien
La Conferencia de Inteligencia Artificial para el Bien (AI for Good) se celebrará en Ginebra (Suiza) los días 30 y 31 de mayo de 2024, coincidiendo con el Foro de Alto Nivel de la Cumbre Mundial sobre la Sociedad de la Información (CMSI)+20, que tendrá lugar del 27 al 31 de mayo de 2024. AI for Good tiene como objetivo identificar aplicaciones prácticas de la IA para acelerar el progreso hacia la consecución de los Objetivos de Desarrollo Sostenible (ODS). Es la principal plataforma de las Naciones Unidas orientada a la acción que promueve la IA para el avance en cuestiones como la salud, el clima, el género, la prosperidad inclusiva, la infraestructura sostenible y otras prioridades mundiales de desarrollo. El programa de 2024 incluye entrevistas con Geoffrey Hinton, asesor para el Aprendizaje en Máquinas y Cerebros, coloquialmente conocido como el Padrino del Aprendizaje Profundo, y Sam Altman, director general de OpenAI. La Conferencia puede seguirse en línea.
Más información en: