Unión Europea mueve al mundo a regular la inteligencia artificial

Esta tecnología tiene muchas virtudes, no obstante su uso poco ético puede acrecentar problemáticas sociales

La inteligencia artificial (IA) está transformando a la industria, al comercio electrónico, el marketing y la logística en general; en todos los sectores se está digitalizando gran cantidad de datos para dotar de herramientas más eficaces y mejorar los servicios. La inteligencia artificial no es un servicio sino una forma de trabajar que requiere un cambio de cultura.

El Reglamento Europeo de IA, también conocido como la propuesta de regulación de la Unión Europea sobre Inteligencia Artificial, es una legislación propuesta por la Unión Europea para normar el uso de la IA  en varios ámbitos.  

El 9 de diciembre de 2023, se acordó la versión final de este documento. Esta normatividad se enfoca en la administración de riesgos y se espera su entrada en vigor sea plena en 2026.

Su objetivo es establecer un marco legal claro y armonizado para el desarrollo, la implementación y el uso de la inteligencia artificial en la Unión Europea. Busca garantizar la seguridad y los derechos fundamentales de las personas en el uso de esta tecnología.

El reglamento aborda diversas áreas de aplicación de la inteligencia artificial, incluidos los sistemas autónomos, el aprendizaje automático y el reconocimiento facial. También se enfoca en la identificación de aplicaciones de alto riesgo, como la vigilancia masiva o la toma de decisiones que pueden afectar derechos fundamentales.

Asimismo, establece principios éticos para el desarrollo y el uso de la inteligencia artificial, como la transparencia, la equidad, la responsabilidad, la privacidad y la seguridad. Estos principios deben integrarse en el diseño y la implementación de los sistemas de IA.

ÚNETE A IDC en nuestro canal de Whatsapp

Sistemas de alto riesgo

El reglamento establece requisitos específicos para los sistemas de inteligencia artificial considerados de alto riesgo, como la necesidad de evaluaciones de riesgos, documentación detallada, supervisión continua y sistemas de calidad de datos. Además, se exige la designación de un responsable de conformidad con la regulación.

Sistemas de IA prohibidos según la Ley de IA

  • Despliegue de técnicas subliminales, manipuladoras o engañosas para distorsionar el comportamiento y perjudicar la toma de decisiones con conocimiento de causa, causando un daño significativo
  • explotar las vulnerabilidades relacionadas con la edad, la discapacidad o las circunstancias socioeconómicas para distorsionar el comportamiento, causando daños significativos
  • sistemas de categorización biométrica que infieran atributos sensibles (raza, opiniones políticas, afiliación sindical, creencias religiosas o filosóficas, vida sexual u orientación sexual), excepto el etiquetado o filtrado de conjuntos de datos biométricos adquiridos legalmente o cuando las fuerzas de seguridad categoricen datos biométricos
  • puntuación social; es decir, evaluar o clasificar a individuos o grupos basándose en comportamientos sociales o rasgos personales, causando un trato perjudicial o desfavorable a esas personas
  • evaluar el riesgo de que un individuo cometa delitos penales basándose únicamente en perfiles o rasgos de personalidad, excepto cuando se utilice para aumentar las evaluaciones humanas basadas en hechos objetivos y verificables directamente relacionados con la actividad delictiva
  • compilación de bases de datos de reconocimiento facial mediante el raspado no selectivo de imágenes faciales de internet o de grabaciones de CCTV
  • inferir emociones en lugares de trabajo o centros educativos, salvo por razones médicas o de seguridad
  • identificación biométrica remota (RBI) "en tiempo real" en espacios de acceso público para las fuerzas de seguridad, excepto cuando:
    • búsqueda de personas desaparecidas, víctimas de secuestros y personas víctimas de la trata de seres humanos o la explotación sexual;
    • prevenir una amenaza sustancial e inminente para la vida, o un ataque terrorista previsible; o
    • identificar a sospechosos de delitos graves (por ejemplo, asesinato, violación, robo a mano armada, tráfico de estupefacientes y armas ilegales, delincuencia organizada y delitos contra el medio ambiente, etc.)

Fuente: Resumen de alto nivel de la Ley AI, EU Artificial Intelligence Act

Pero, ¿por qué resulta destacable este nuevo ordenamiento si ya existen regulaciones en esta materia en los Estados Unidos y en China?, la respuesta es que en esta nueva legislación ya se contemplan prohibiciones de ciertas aplicaciones de inteligencia artificial consideradas como que vulneran la seguridad y los derechos de los ciudadanos, lo que implica un gran avance.

No obstante, precisamente esas prohibiciones abren la interrogante si ante los requisitos y obligaciones que se establecen se constituirá la legislación en un obstáculo para el desarrollo de la IA en Europa.

Todavía falta mucho por desarrollar, ya que se espera que la Oficina de IA de la Comisión Europea publique una normativa secundaria que apoyará a la interpretación y aplicación del nuevo reglamento.

Una de las críticas que se realizan a este reglamento es que su supervisión se deja  a un gran número de autoridades, lo que puede dar lugar a que se generen diversos criterios y que se aplique de manera desigual el Reglamento.

La regulación europea en esta materia podría convertirse en una norma mundial y está moviendo a diferentes países para regular esta materia, por ejemplo Brasil. 

¿Cómo va México en este tema?

Nuestro país tiene en el cajón más de 31 iniciativas para regular la IA, las cuales no han prosperado por diversas razones.

Si bien México no es un desarrollador destacado de la IA, sí se utiliza esta para diversas áreas económicas, y de manera preocupante en tiempos electorales, por lo que es urgente tener una regulación adecuada, considerando que con su uso poco ético puede aún generar más desigualdad social y económica.

¿Quieres saber más? ¡Sigue a IDC en Google News!