Europa está más cerca de convertirse en la primera región del mundo en tener un marco regulatorio vigente alrededor de la IA.
La Unión Europea (UE) acaba de dar un paso significativo en sus intenciones por regular el desarrollo y uso de la inteligencia artificial (IA). El 21 de abril de 2021, la Comisión Europea propuso la Ley de Inteligencia Artificial (AI Act) con el objetivo de introducir en la Unión Europea (UE) un marco normativo y jurídico común para controlar el uso de la IA en aquella región.
En su pleno del miércoles, el Parlamento Europeo aprobó el proyecto de ley sobre la IA, lo que significa que iniciará las negociaciones con los Estados de la UE y la Comisión para dar vigencia y validez legal a la normativa antes de 2026.
De concretarse el proyecto normativo, Europa se convertirá en la primera región del mundo en tener un marco regulatorio vigente alrededor de la IA, una tecnología que avanza a pasos acelerados y que promete cambiar para siempre la economía, cultura y desarrollo en todo el mundo.
El último borrador de ley aprobado por el Parlamento Europeo incluye requisitos, restricciones y responsabilidades aún más estrictos para las empresas que desarrollan, distribuyen o utilizan sistemas basados en IA si se comparan con las normativas presentadas en la primera propuesta de la normativa.
Ley IA en Europa: claves de la propuesta
La iniciativa de ley europea alrededor de la inteligencia artificial propone la creación de un sistema de categorización en el que las plataformas IA se clasifican en función del “riesgo potencial” que suponen para el bienestar social:
Riesgo mínimo: Aquellas plataformas que serán de uso mínimo al representar una amenaza mínima o nula para la sociedad, tales como los filtros de spam basados en IA.
Riesgo limitado: servicios y aplicaciones que a través de su funcionamiento o nacimiento dejen en claro a los usuarios que están interactuando con un sistema IA. Son plataformas IA que tienen obligaciones específicas de transparencia.
Alto riesgo: desarrollos IA con obligaciones legales más estrictas que, por su funcionamiento y objetivo, requieren de supervisión humana y el uso de datos de alta calidad para evitar problemas como la discriminación de los usuarios. Sistemas basados en IA para otorgar créditos o evaluar candidatos para un puesto están dentro de este grupo. También es plausible que algunas inteligencias artificiales generativas, como ChatGPT, terminen calificadas en él.
Riesgo inaceptable: sistemas que sin más quedarán prohibidos en la Unión Europea tales como aquellas aplicaciones que permiten funciones como el llamado social soring, el sistema de puntuación social que determina la credibilidad o reputación de una persona al evaluar diversos datos y actividades rastreables vía internet.
Los requisitos, responsabilidades y prohibiciones a cumplir por parte de las empresas tecnológicas que trabajan con o en proyectos IA se determinarán en función de esta clasificación.
Por ejemplo, las plataformas, compañías o servicios que se encuentran en segunda y tercera categoría deberán notificar a las audiencias que están interactuando con sistemas de inteligencia artificial o bien, que el contenido al que están expuestos proviene de una de estas aplicaciones. Además, ambos grupos deberán revelar con qué datos generales y protegidos por derechos de autor han entrenado estos modelos IA.
En la misma línea, los servicios que entren en el grupo de “alto riesgo” deberán establecer sistemas de seguridad elevados para los usuarios, contar con supervisión humana comprobable, alimentar la base de datos con información de alta calidad para evitar sesgos y registrar la actividad de los usuarios para rastrearlos en caso de que sea necesario.
Uno de los puntos más destacados dentro del último borrador del proyecto de ley europeo para regular la inteligencia artificial es la prohibición de sistemas de identificación biométrica remota y clasificación biométrica. También prohíbe la creación de bases de datos de reconocimiento facial basada en recolección de imágenes en internet, así como el uso de cualquier software capaz de reconocer las emociones de los usuarios.
En términos generales, estas son las bases que propone la iniciativa de ley europea para regular el desarrollo y aplicación de sistemas IA. Cabe destacar que, tras las negociaciones en el Parlamento Europeo, muchas condiciones, requisitos y obligaciones podrían modificarse, ser eliminadas o bien sumar nuevos requerimientos no considerados hasta ahora.
La industria planta postura ante la próxima ley IA en la Unión Europea
La propuesta de ley en Europa alrededor de la IA ha sido leída por muchos jugadores de la industria como una especialmente restrictiva que pone en duda la rentabilidad de sus negocios a largo plazo.
Una encuesta reciente indicaba, ante este escenario, que el 51% de los desarrolladores espera una desaceleración de sus actividades e ingresos como resultado de la nueva Ley de IA.
Sam Altman, CEO de OpenAI, ha sido uno de los primeros en alzar la voz de manera contundente al respecto. Tras reunirse con autoridades de diversos países europeos como España, Francia y Reino Unido para discutir mecanismos que regulen el avance y uso de la IA, el líder de la empresa detrás de ChatGPT aseguró que la naciente industria de la inteligencia artificial necesita ser regulada y licenciada.
Sin embargo, en una declaración entregada a Reuters, Altman afirmó que el borrador actual de la Ley de IA de la UE propone una normativa “sobrerregulada”, aunque espera que esto cambie con en la versión final.
En un tono diferente, Google también ha tratado de ganar voz y voto en la regulación de la IA en la Unión Europea. A finales de mayo, el CEO de la empresa, Sundar Pichai, anunció un acuerdo voluntario con los legisladores de la Unión Europea para establecer un conjunto provisional de reglas y estándares alrededor del desarrollo de la IA.
Empresas como Google y OpenAI coinciden en que es necesario regular la IA. No obstante, tal y como la Ley IA de la UE está redactada en este momento, las empresas con desarrollos de gran alcance se verían obligadas a cumplir una mayor cantidad de requisitos con mayor exigencia que desarrolladores independientes o plataformas Open Source de pequeño o mediano tamaño, agentes que en el futuro pueden ser los verdaderos líderes en el negocio.