El día de ayer, la Unión Europea hizo historia al aprobar la primera ley integral del mundo que regula el uso de la Inteligencia Artificial, la cual se espera que entre en vigor de forma oficial durante el próximo mes de mayo o de junio, ya que todavía está pendiente la aprobación formal de los países miembros de la UE. Por su parte, las reglas que establecerá esta ley sobre el uso general de softwares con IA como ChatGPT comenzarán a aplicarse un año después de que la ley sea vigente, de forma que se estima que el conjunto completo de sus regulaciones esté en marcha a mediados de 2026.
La ley se basa en los riesgos que supone la IA, clasificando su uso según el daño que podría llegar a causar. Por ejemplo, prohíbe su uso para datos biométricos que sirvan para detectar el origen étnico o la orientación de una persona. Para estos usos, considerados de alto riesgo, las aplicaciones deberán demostrar que sus modelos son seguros, transparentes, y que cumplen con las regulaciones de privacidad.
En cuanto a los softwares de IA de menor riesg, no habrá apenas regulación, aunque los desarrolladores deberán estar obligados a etiquetar las imágenes, vídeos o audios deepfake generados por IA de personas, lugares o eventos existentes que hayan sido manipulados artificialmente. La ley se aplicará a los modelos que operen dentro de la Unión Europea, y a las empresas que no cumplan estas reglas se les impondrá una multa de hasta el 7% de sus ganancias globales anuales.
Los sistemas de IA que se utilicen para un propósito general, deberán elaborar una política que demuestre que el contenido utilizado para entrenar sus modelos respeta la ley europea de derechos de autor.
Además, cada país miembro creará su propio organismo de control de la IA y sus ciudadanos podrán presentar sus quejas si creen que se han violado sus derechos. Bruselas creará una oficina independiente de IA para hacer cumplir y supervisar la ley.
Por otra parte, los modelos de IA más grandes que pueden llegar a causar riesgos sistémicos, que incluyen sistemas como GPT4 de OpenAI y Gemini de Google, tendrán un escrutinio aparte. Estas compañías estarán obligadas a evaluar y mitigar los riesgos, implementar medidas de ciberseguridad, informar de cualquier incidente grave causado por sus softwares y revelar cuánta energía utilizan sus modelos.
Esta nueva ley se une a otras recientes regulaciones digitales establecidas por la Unión Europea, como la Ley de Servicios Digitales que se aprobó en 2023, centrada en el abuso en redes sociales, o la Ley de Mercados Digitales, que entró en vigor el pasado 7 de marzo.
© REPRODUCCIÓN CONFIDENCIAL