Fuente: elEconomista

  • Todavía se tienen que arreglar algunos puntos y no entrará en vigor hasta por lo menos 2026
  • Pretende que los sistemas usados en este mercado sean seguros y respeten los derechos fundamentales de la UE

Fue hace tan solo unos días que la Union Europea anunció que habían llegado a un acuerdo provisional para la creación de la primera Ley de Inteligencia Artificial (IA) del mundo, un hito que pretende servir como ejemplo para el resto del mundo en el desarrollo y avance de esta tecnología. Esta normativa busca controlar y hacer que estos sistemas sean seguros y respeten los derechos fundamentales de los usuarios en tanto el sector público como el privado.

Este acuerdo se ha conseguido después de mucho tiempo, ya que fue en 2021 cuando se presentó el primer borrador de la Ley de IA, y después de numerosos encuentros, debates y discusiones, parece que los eurodiputados han logrado llegar a un punto intermedio, aunque como decíamos antes se trata de un preacuerdo al que todavía le quedan algunos puntos por cerrar.

Se espera que esto se consiga antes de que finalice el año, pero no será hasta por lo menos 2026 que la normativa entre en vigor dentro de todo el territorio europeo. La idea principal es regular la IA basándose en la capacidad de esta para causar daño a la sociedad siguiendo un enfoque ‘basado en el riesgo’: cuanto mayor sea el riesgo, más estrictas serán las normas.

Además, al ser una normativa pionera en el mundo, se pretende promover esta como el estándar a nivel mundial, de manera similar a lo que se ha hecho con el Reglamento General de Protección de Datos (RGPD). Dicha ley es un proceso complejo, repleto de puntos y aspectos y por ello en el artículo de hoy te contamos cinco formas en la que esta ley te va a afectar.

1. IA clasificadas por sus «riesgos»

Sabemos que la IA puede llegar a ser peligrosa, y sabemos que dependiendo de sus capacidades, una lo son más que otras. Por esa razón la UE ha establecido etiquetar a cada sistema con un nivel de peligrosidad. Comenzando por «riesgo mínimo», seguido de «alto riesgo»«transparencia específico» en el que entran los chatbots tipo ChatGPT y por último está el nivel «riesgo inaceptable» que engloba a las IA que ‘manipulan el comportamiento humano para eludir el libre albedrío de los usuarios’, y de hecho la UE se plantea incluso prohibirlas.

2. Derechos de autor

Con las capacidades de la IA, uno de los mayores temores eran los derechos de autor y cómo saber qué ha sido creado por una máquina o por una persona. De esta manera, esta nueva normativa exigirá transparencia y obligará a que estas máquinas y aquellos que las usan lo hagan cumpliendo con la ley de derechos de autor vigente en la UE además de publicar con la obra resúmenes explicativos del contenido utilizado para entrenar a la IA.

3. Aplicaciones prohibidas

La UE también ha establecido que la IA no podrá hacer de todo, sino que ha impuesto algunas limitaciones, enfocándose sobre todo en labores de vigilancia. Con el objetivo de proteger los derechos de privacidad de los ciudadanos se limitará el uso de sistemas de identificación biométrica en espacios públicos por parte de las autoridades policiales.

Tan solo se permitirá en usos específicos (amenazas terroristas, identificación víctimas, agresiones…) y siempre bajo condiciones determinadas y delitos graves.

Accede aquí a la información completa