Columnas

Prisma Político

 

Qué son las limitantes legales de la Inteligencia Artificial  

La inteligencia artificial (A.I. en inglés), en definición comúnmente aceptada, es la capacidad que tiene un dispositivo (móvil, ordenador o robot) para realizar tareas que generalmente requieren inteligencia humana, por ello es compleja, múltiple y en evolución explosiva hoy. Se proyecta en numerosas áreas de conocimiento y nos ayuda en nuestro día a día, generando grandes oportunidades; así la IA crea modelos capaces de generar autónomamente contenidos de texto, imágenes, videos o otro tipo de datos, siendo ejemplo hoy el ChatGPT. La IA optimiza los procesos productivos y la logística, automatiza la industria mejorando su competitividad; gestiona el tráfico; analiza el sector bursátil y financiero; ayuda al sector sanitario mejorando los sistemas de diagnóstico e incorporando la medicina de precisión o a la administración pública, con una educación personalizada.

Los autores clásicos de ciencia ficción como Julio Verne, H.G Wells (máquina del tiempo) o autores en los que concurre además su condición de científicos, como Arthur C. Clark o Isaac Asimov,  anticiparon con precisión el futuro de la tecnología y de la ciencia, sus problemas éticos y límites de su uso, en beneficio de los seres humanos y su entorno natural.

La IA no puede sustituir a la inteligencia humana en la Administración de Justicia, en declaración de Manuel Marchena, Presidente de la Sala de lo Penal del TS, abril de 2023 en el Congreso Internacional sobre Derecho e IA. Afirmación más voluntarista que real, pensando en el futuro inmediato de la justicia.

Los algoritmos de predicción de sentencias existen y son capaces de generar resoluciones correctas en un 79% de los casos, así se constata en el análisis de 584 resoluciones de la Corte Europea de Derechos Humanos, efectuadas por algoritmos, con base en datos objetivos o el caso Cruncher Alpha, con algoritmo elaborado por cuatro estudiantes de derecho de Cambridge de predicción de resultados de decisiones judiciales en materia de seguros; el resultado sobre 775 casos fue consultado a 100 abogados de reconocido prestigio que acertaron el 63,3% frente al 86,6% del algoritmo. La IA se puede aplicar razonablemente en asuntos del derecho de los negocios con infracciones económicas o en la jurisdicción fiscal vinculada a la contabilidad o en la civil referida a deudas de aseguradoras o sin duda en los procesos de marcas y patentes. Sin embargo, cuando no solo se manejan elementos objetivos, sino que aparecen derechos subjetivos, los algoritmos resultan impensables dada la necesidad de interpretación de un juez, que siempre va a aplicar el criterio social vigente y la valoración individualizada de las circunstancias del caso.

El uso de la IA en un gran número de campos ha crecido aceleradamente durante los últimos años. Una de las principales preocupaciones que han surgido es la capacidad que tienen los sistemas y algoritmos de IA de violar derechos humanos, aumentar la desigualdad, e incluso, amenazar la democracia.

Centrémonos en un ejemplo. Uno de los usos más comunes de los sistemas de IA es el de los recursos humanos. Es bien sabido que hoy en día muchas empresas utilizan estas herramientas basadas en la IA para filtrar candidatos y seleccionar a quienes avanzarán a las siguientes fases del proceso de contratación. El uso de estos sistemas sigue en aumento, se calcula que, al menos, el 55% de los directores de recursos humanos estadunidenses utilizarán sistemas de inteligencia artificial como parte de su trabajo en los próximos cinco años.

La falta de transparencia y responsabilidad de estos sistemas, unida a la priorización del ahorro de tiempo por parte del personal de recursos humanos de algunas empresas, está dando lugar a prácticas de discriminación graves en el mercado laboral. Por ejemplo, en 2015, se descubrió que una herramienta de recursos humanos utilizada por Amazon  discriminaba a las mujeres debido a que el algoritmo estaba diseñado en función de la experiencia pasada (replicando patrones de los últimos 10 años) lo que provocaba un sesgo a favor de los candidatos masculinos.

De esta forma, los algoritmos no están eliminando los sesgos tradicionales de los seres humanos, sino escondiéndolos a través de herramientas tecnológicas, robots y “cajas negras”, creando lo que se denominamos “discriminadores silenciosos”. Los grupos afectados son fácilmente identificables: las minorías, las mujeres con pausas profesionales o trayectorias atípicas (como las mujeres que tuvieron que interrumpir su carrera por motivos como la maternidad), los inmigrantes, las personas mayores y las personas con discapacidad, por mencionar algunos.

Se ha reconocido que si los sistemas de IA utilizados en el empleo, tanto en la contratación como en la evaluación de los trabajadores, no están debidamente regulados, pueden perpetuar patrones históricos de discriminación.  De hecho, el proyecto considera los sistemas de IA laborales como de “alto riesgo” y establece obligaciones proporcionales destinadas a potenciar y proteger, entre otros derechos, el derecho a la dignidad humana, el respeto a la vida privada y la protección de los datos personales, la no discriminación y la igualdad entre mujeres y hombres, y el derecho de defensa y la presunción de inocencia.

Otro sistema de IA que ha suscitado serias preocupaciones en relación con los derechos humanos es el reconocimiento biométrico en tiempo real. La Organización de las Naciones Unidas (ONU) ha expresado su preocupación respecto a estos sistemas, ya que pudieran derivar en la identificación errónea de individuos y generar impactos desproporcionados en miembros de ciertos grupos de personas. Además, según la ONU, la tecnología de reconocimiento facial pudiera llegar a utilizarse indebidamente para elaborar perfiles de individuos en función de su etnia, raza, origen nacional, sexo y otras características

Hemos planteado algunos temas recientes y sujetos a discusión sobre el impacto de la IA en el ámbito jurídico. Estas cuestiones requerirán un análisis y un debate más profundo a nivel global. En mi opinión, deben empezar a diseñarse urgentemente estándares y normas para garantizar que los sistemas de IA cumplan con los diversos marcos jurídicos, principalmente, para evitar que violen derechos humanos.

Los acelerados avances de la tecnología de IA ponen de manifiesto que los abogados deben actuar con rapidez y coordinación para comprender y normar esta tecnología. Cuando empezamos a escribir este artículo, estábamos asombrados de las capacidades del GPT-4, pero en menos de un mes, han aparecido varias aplicaciones que afirman mejorar o ampliar las funciones de ChatGPT. Por ejemplo, Auto-GPT es una nueva aplicación de IA que presuntamente puede actuar de forma autónoma sin requerir indicaciones o instrucciones del usuario en cada paso para cumplir un objetivo. El ritmo dinámico y las diversas aplicaciones de los sistemas y aplicaciones de IA subrayan la necesidad de una acción rápida y coordinada por parte de la comunidad legal.

En este sentido, no sólo es responsabilidad de los abogados, sino también de la sociedad civil, las empresas, las organizaciones internacionales y los reguladores establecer las normas que regirán el funcionamiento de estos sistemas. No hacerlo, o hacerlo lentamente, puede tener consecuencias irreversibles para la humanidad.

“Temo el día en que la tecnología sobrepase nuestra humanidad; el mundo solo tendrá una generación de idiotas”

 Albert Einstein

MTRO: FRANCISCO SÁNCHEZ RAMÍREZ

frasa18@hotmail.com

 

Las opiniones expresadas en este documento son de exclusiva responsabilidad del autor y no necesariamente representan la opinión del Portal que lo replica y pueden o no, coincidir con las de los miembros del equipo de trabajo de Mundo Querétaro., quienes compartimos la libertad de expresión y la diversidad de opiniones compartiendo líneas de expertos.