La Inteligencia Artificial (IA) es parte de nuestras vidas. En todos los aspectos, tanto en el personal como en el profesional, la generación de imágenes, audios, videos y texto mediante herramientas de IA generativa se ha posicionado como una herramienta de alto nivel de utilidad y con beneficios palpables.
Pero pese a ello, también existen una serie de riesgos asociados a su utilización sin una regulación adecuada. El Foro Económico Mundial advierte, en su reporte de riesgos globales 2024, que su rápida evolución y adopción también han traído consigo riesgos significativos en términos de ciberseguridad, suplantación de identidad, deep fakes, y especialmente, la proliferación de desinformación.
Esto la convierte en el segundo riesgo más importante de este año, destacando la combinación peligrosa de la falta de confianza en los medios de comunicación y el fácil acceso a tecnologías avanzadas de IA.
Es por eso que la reciente Ley sobre Inteligencia Artificial aprobada por el Parlamento de la Unión Europea es un avance hacia la implementación y crecimiento de la IA de forma transparente, ética y con enfoque en la innovación segura. De acuerdo con Neil Thacker, CISO de Netskope en Europa, la regulación abona a la creación de un ecosistema digital en el que la tecnología y la ética avancen de la mano.
«Es una ley inevitable«, indica. “Con la creciente presencia de la IA en todos los aspectos de la vida diaria, la cuestión de los marcos legales se ha vuelto urgente y necesaria para regular sus usos y proteger los datos. Sin embargo, es esencial que esto se haga con preceptos legales precisos y transparentes que evolucionen con las tecnologías, de modo que logremos el equilibrio adecuado entre permitir la innovación y respetar los principios éticos», indica el especialista.
¿Qué dice la nueva Ley de IA?
Aprobada el pasado 13 de marzo, la regulación establece un marco regulatorio integral que aborda diversas aplicaciones y usos de la IA, enfocándose especialmente en aquellos que presentan mayores riesgos para los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental. Entre los puntos más destacados se encuentran:
- Veracidad de los contenidos: Establece una serie de requisitos de transparencia con respecto al contenido usado para entrenar los modelos de IA, como cumplir con las leyes de derechos de autor de la región y publicar resúmenes detallados sobre el origen del contenido.
- Control en la identificación biométrica: La ley prohíbe ciertas aplicaciones de inteligencia artificial que atentan contra los derechos de la ciudadanía, como el uso de sistemas biométricos para la categorización o puntuación ciudadana basados en características sensibles, así como la captura indiscriminada de imágenes faciales de internet o grabaciones de cámaras de vigilancia para crear bases de datos de reconocimiento facial.
- Reconocimiento de emociones: Se prohíbe el reconocimiento de emociones en el lugar de trabajo y en las escuelas y el uso de la IA para manipular el comportamiento humano o explotar las vulnerabilidades de las personas.
- IA transparente: Ante el crecimiento indiscriminado de deep fakes para la propagación de desinformación, la ley establece que todo contenido (en video, imágen o audio) creado con IA deberá estar debidamente etiquetado con la leyenda «Contenido creado y manipulado con Inteligencia Artificial».
- Derechos de los consumidores: Incluyendo la capacidad de presentar reclamaciones y recibir explicaciones sobre las decisiones tomadas por sistemas de IA que afecten sus derechos.
¿Qué hay de las fuerzas de seguridad?
La Ley indica que el uso de sistemas de identificación biométrica queda prohibido para las fuerzas de seguridad salvo en situaciones muy concretas y bien definidas, como la búsqueda selectiva de una persona desaparecida o la prevención de un acto terrorista. En estos casos, indica la norma, se requerirá una autorización judicial o administrativa previa.
Para Neil Thacker, lo anterior representa un avance significativo con áreas de oportunidad hacia un futuro en el que la innovación y la ética alcancen un equilibrio completo. El especialista aplaude la regulación al describirla como una ley de amplio alcance que deberá inevitablemente replicarse en otras regiones en un futuro, y que marca un punto de inflexión en la constante evolución digital.
«La nueva ley incluye requisitos de transparencia, incluida la documentación técnica y el cumplimiento de las leyes de derechos de autor de la UE, y cuando esta información no esté disponible, las empresas deberán controlar el uso de dichos sistemas dentro de su organización. Me complace especialmente ver que la creación de resúmenes detallados sobre el contenido utilizado en la capacitación de la IA sea un requisito explícito», indica.
«La toma de decisiones informada es crucial para implementar una IA que sea ética. Conocer y documentar el uso de sistemas de aprendizaje automático dentro de una organización es una forma sencilla de comprender y anticipar las vulnerabilidades de los datos críticos para el negocio, al tiempo que se garantiza el uso responsable de esta tecnología«, concluye Thacker.
La nueva ley sobre inteligencia artificial de la Unión Europea marca un punto de inflexión en la forma en que concebimos el desarrollo y la implementación de la IA. Al establecer un marco legal que prioriza la transparencia, la ética y la innovación, se sientan las bases para un futuro tecnológico que no solo es avanzado, sino también responsable y justo.
Por Daniel Flores