Table of Contents
Este artículo ha sido concebido y escrito en colaboración con Federica Morichetti, redactora publicitaria y directora de contenido de GreatPixel.
Políticas de privacidad poco claras, generación de contenidos engañosos y manipulación de los usuarios: son muchos los riesgos provocados por el repentino desarrollo de las tecnologías de Inteligencia Artificial (IA).
Ante esta situación, la Unión Europea se ha movilizado para crear la Ley de IA (un reglamento específico sobre Inteligencia Artificial) con el objetivo de establecer límites precisos y frenar los peligros derivados del desarrollo imparable de esta tecnología.
Tras la primera propuesta, presentada por la Comisión Europea en 2021, el documento fue finalmente aprobado por el Parlamento Europeo el 13 de marzo de 2024 y se inició el proceso para su entrada en vigor. El 30 de mayo de 2024 se dio el siguiente paso con la creación de una nueva oficina, la Oficina de IA, dedicada a supervisar la implementación de la ley y compuesta por 140 expertos del sector.
La importancia de la Ley de IA
Desde su primera propuesta, la Ley de IA ha sido considerada el proyecto de regulación de sistemas de Inteligencia Artificial más completo a nivel global.
Durante el debate previo a la aprobación de la ley por parte del Parlamento Europeo, el eurodiputado y coponente de la ley, Brando Benifei, declaró:
«Por fin hemos aprobado la primera ley vinculante del mundo sobre inteligencia artificial».
Una posición que convierte a la Unión Europea en un modelo a seguir, pero que, al mismo tiempo, conlleva todos los riesgos del principiante (o del pionero, según el punto de vista).
Regular un mercado tan amplio, multifacético y fluido como el de la IA no es sencillo y requiere un gran esfuerzo. Los legisladores se encuentran en la necesidad de trabajar en el ámbito de lo probable, tratando de seguir el ritmo de una tecnología que cambia mucho más rápido de lo que se tarda en comprenderla.
De hecho, poco después de la aprobación de la ley, se han producido cambios significativos en el ecosistema de la IA. En mayo de 2024, OpenAI generó mucho entusiasmo con su nuevo modelo de vanguardia: GPT-4o. Una vez más, la organización de San Francisco fundada por Elon Musk y Sam Altman consolidó su posición pionera en la industria. El nuevo modelo puede procesar entradas de texto, audio y vídeo del usuario a través de una única red neuronal, minimizando la pérdida de datos y acelerando el proceso de respuesta a 320 milisegundos, equivalente a la velocidad de una conversación humana.
¿A quién va dirigida la Ley de IA?
Un tema tan complejo requiere una legislación igualmente exhaustiva y puede ser difícil captar su esencia. Por eso, abordaremos los puntos clave del plan europeo para la IA, que forma parte de la estrategia digital más amplia de la UE.
Antes de empezar, es importante aclarar qué se entiende por inteligencia artificial. El reglamento define en el artículo 3 el concepto de «sistema de IA» como:
«Un sistema basado en una máquina diseñado para funcionar con distintos niveles de autonomía, que puede mostrar capacidad de adaptación tras el despliegue y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe la manera de generar información de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos o virtuales».
Por lo tanto, el reglamento afecta a todos los programas de IA generativa como Google Gemini o la ya mencionada ChatGPT. De hecho, aunque las empresas propietarias sean de origen estadounidense, la ley se aplica a todos los «proveedores» (tanto públicos como privados) que ofrecen servicios de IA en el mercado europeo. Además, también se ven afectados los «operadores», es decir, todos aquellos que utilizan profesionalmente un sistema de IA bajo su propia autoridad, siempre que la información de salida sea accesible dentro de la UE. Por lo tanto, incluso las empresas que utilizan contenidos creados mediante IA generativa se verán afectadas por la ley.
Quedan excluidos todos los usos con fines militares o de seguridad nacional, así como la investigación científica y las licencias de código abierto (que, no obstante, sí están reguladas en caso de alto riesgo).
Los puntos clave de la Ley de IA
Las restricciones impuestas por la ley dependen del nivel de riesgo que plantean los sistemas de IA, que se clasifican en cuatro macrocategorías:
- Sistemas de IA con un nivel de riesgo inaceptable. Se incluyen todas aquellas tecnologías que no respetan los valores fundamentales de la UE como la dignidad humana, la democracia y el Estado de derecho. Lo que se incluye en esta categoría está prohibido o sujeto a restricciones muy estrictas.
- Sistemas de IA con un nivel de riesgo elevado. Se consideran capaces de tener un impacto «significativo» en la protección de los derechos fundamentales de los ciudadanos europeos. Son todos los sistemas de IA utilizados en la gestión y recopilación de datos sensibles, como en el ámbito de la salud, la educación, las fuerzas del orden o los recursos humanos. Se han incluido en esta categoría todas las IA generativas con una potencia de cálculo superior a 10^25 FLOPS. A estas tecnologías se aplican estrictas directrices sobre la recopilación de datos, información ofrecida a los usuarios, supervisión humana, evaluación del riesgo y mucho más. Deberán ser certificadas y aprobadas por organismos independientes.
- Sistemas de IA de riesgo limitado. Esta categoría incluye la gran cantidad de IA generativas utilizadas para fines personales o para la creación de contenido audiovisual no institucional (como chatbots o generación de imágenes). En este caso, la obligación fundamental es la protección del usuario, que debe ser informado claramente de que está interactuando con una inteligencia artificial.
- Sistemas de IA de riesgo mínimo o nulo. Estos son, por ejemplo, los filtros fotográficos o las tecnologías utilizadas en los videojuegos. No se aplican restricciones especiales, pero sí se aplican las leyes generales europeas de privacidad, protección del consumidor y derechos de autor.
Hay que tener en cuenta que estas categorías podrían cambiar en los próximos años debido a los nuevos desarrollos en el sector.
Contenidos generados por IA: una cuestión compleja
Aunque sin duda es un paso en la dirección correcta, la nueva Ley europea de IA es vaga en un tema particularmente delicado: los derechos de propiedad intelectual y el contenido generado por IA.
Este tema plantea varias cuestiones. La primera y más importante se refiere a la forma en la que se «entrenan» las tecnologías. Para que un sistema de IA generativa pueda producir textos, imágenes o audio, debe analizar una gran cantidad de obras creadas por humanos (data-mining). Esto implica el acceso a contenidos protegidos por derechos de autor y es una metodología que los propios autores llevan tiempo denunciando, acusando a los desarrolladores de apropiarse de sus creaciones de forma indiscriminada.
En este sentido, la Ley de IA ha establecido limitaciones en el artículo 105 de la legislación para la protección de los autores. El texto establece que:
«Todo uso de contenidos protegidos por derechos de autor requiere la autorización del titular de los derechos de que se trate, salvo que se apliquen las excepciones y limitaciones pertinentes en materia de derechos de autor».
Los autores pueden pues reservarse el derecho de negar a los sistemas de IA el acceso a sus obras. Pero, ¿qué pasa con los resultados? ¿A quién pertenece realmente un contenido generado por IA?
Lamentablemente, la cuestión sigue siendo poco clara y no existe una postura internacional sobre el tema. Hasta la fecha, se han adoptado dos enfoques:
- Reservar los derechos de autor para las obras creadas por humanos. Esta es la política adoptada, entre otros, por Estados Unidos y la Oficina Europea de Patentes (OEP). Según lo establecido por la OEP en diciembre de 2021, tras un caso relacionado con el sistema de inteligencia artificial DABUS, para que una obra pueda estar protegida por derechos de autor debe ser creada por un humano con capacidad legal.
- Atribuir la originalidad de la obra al distribuidor del sistema de inteligencia artificial, es decir, a los desarrolladores de la tecnología. Esta es la postura adoptada por Reino Unido, India, Irlanda y Nueva Zelanda.
Para evitar este problema, muchas empresas prefieren modificar significativamente el contenido generado por IA, utilizándolo solo como base y guía inicial. De esta manera, sería posible demostrar una contribución creativa humana que hace que la obra sea privada y, por lo tanto, protegible, pero la cuestión sigue abierta.
Conclusiones y perspectivas de futuro
La Ley de IA marca un cambio verdaderamente significativo, tanto desde el punto de vista legal como cultural. El simple hecho de que exista es un síntoma de la creciente importancia que estas tecnologías están adquiriendo en la vida cotidiana. La regulación de la inteligencia artificial es una cuestión que ya no se puede posponer y que será cada vez más central en el debate global.
El principal problema es la naturaleza regional de la medida, especialmente considerando que se trata de tecnologías que no siempre se pueden ubicar geográficamente. La naturaleza digital de la IA permite que cualquiera la utilice desde cualquier parte del mundo, independientemente de la ubicación de la empresa productora. Esto hace que la regulación de la IA sea un desafío global. Además, podrían surgir conflictos de intereses entre los distintos países interesados, especialmente si existen diferencias regulatorias significativas. Precisamente por ello, los expertos llevan tiempo recomendando un enfoque universal que involucre a tantas partes interesadas como sea posible.
Dicho todo esto, la Ley de IA de la UE es un hito importante. Como mínimo, muestra que las instituciones europeas se dan cuenta de que el auge de la IA no se puede detener, sino que, al contrario, si se aprovecha adecuadamente, puede traer enormes beneficios. En palabras del eurodiputado Dragoş Tudorache, coponente del Parlamento Europeo para la legislación: «El futuro está impulsado por la inteligencia artificial y debemos seguir dándole forma».
Cómo la Ley de IA de la Unión Europea regulará el impacto de la inteligencia artificial en la comunicación cotidiana