Es un asunto que concierne a todos: usuarios, abogados, tecnólogos y probablemente filósofos. La Inteligencia Artificial soluciona tantos problemas como abre interrogantes jurídicos y éticos. En la Unión Europea se espera para este año un reglamento específico que marcará un antes y un después, como lo hizo en 2016 la legislación sobre protección de datos.
Ingenieros y abogados se sentaron juntos en la jornada “IA Responsable y Gobernanza de Datos”, organizada por KPMG. Un foro necesario porque hoy en día la IA genera tantas expectativas como miedos e incertidumbre, como recordó Eva García San Luis, socia de Lighthouse de KPMG en España.
La deontología ya está sobre la mesa y muchas empresas tienen publicados y debatidos los principios que guían su actuación en esta materia, como se puso de manifiesto durante la sesión, pero la regulación no avanza al mismo ritmo que la ética y la propia tecnología. Actualmente se debate en el Parlamento Europeo el esperado reglamento sobre IA.
Eva García San Luis planteó varias preguntas pendientes de resolver. ¿Cómo sabemos que estos modelos de IA no tienen ningún sesgo? ¿Cómo gobernar mis datos? Hablamos de modelos que “son como cajas negras”, dijo la socia de Lighthouse. La regulación es urgente, para que podamos confiar en la Inteligencia Artificial, pero también debe ser flexible para que explotemos sus posibilidades y Europa sea competitiva.
Según Noemí Brito, directora y responsable del área de ‘Legal Operations & Transformation Services’ (LOTS) de KPMG Abogados, la estrategia en materia de IA de la UE ha coincidido casi al mismo tiempo que la de datos porque ambas van muy de la mano. Unas normas que van a coincidir con las regulaciones españolas, como la reciente Carta de Derechos Digitales. Estamos viviendo, según la responsable de KPMG, un momento disruptivo desde el punto de vista jurídico y de negocio: usar la ley como herramienta competitiva.
“La piedra base para el desarrollo de cualquier solución de IA son los datos”, apuntó en el mismo encuentro la directora de Smart Forensic de KPMG en España, María Barcenilla. Las empresas deben ser proactivas para cumplir la normativa y los estándares éticos de la Inteligencia Artificial, tanto a nivel internacional como europea y española.
“Porque la IA -explicó Alberto Estrelles, socio director de KPMG Abogados- puede vulnerar los derechos fundamentales: es opaca, es compleja y también es autónoma. Es fundamental que las empresas, en el diseño de esa IA, tengan en cuenta los riesgos regulatorios para minimizarlos y, al mismo tiempo, aprovechar las oportunidades que presenta”.
Como dice Regina Ojea, Senior Legal Counsel Regulatory Affairs en Amadeus, vivimos aún hoy “en una especie de puzle. Cada empresa debe determinar cuáles son sus obligaciones y no es fácil”. La responsable de Amadeus trazó un paralelismo entre el reglamento de IA que preparan en Estrasburgo con el de Protección de Datos. Tienen bastantes cosas en común en cuanto a su alcance y es probable que, igual que lo hizo el RGPD, el europeo sea el estándar que se adopte en el resto del mundo. En particular, en aquellas regiones donde los patrones éticos no sean tan elevados.
Un punto de vista complementario vino de la mano de Pedro Hinojo, de la Comisión Nacional de los Mercados y la Competencia (CNMC). En el organismo regulador monitorizan la conducta de empresas con una base más digital, explicó el subdirector de Sociedad de la Información, cuando pueden dar lugar a problemas de competencia.
Cecilia Álvarez, EMEA Privacy Policy Director de Meta, apeló a no dejarse llevar por el miedo, el pesimismo o la resignación ni por parte de las empresas ni por los legisladores. Los períodos tan complicados que estamos viviendo impactan nuestro ánimo y expectativas (COVID-19, guerra de Ucrania, inflación, …). Sin embargo, “regular desde el miedo no es precisamente la mejor forma de enfrentarnos a retos complicados, que deben ser también ilusionantes”, subrayó.
Y defendió que, a la hora de legislar, no se trabaje en silos. Las propuestas de regulación en materia de IA, datos (personales y no personales), la propiedad intelectual o la responsabilidad de producto se están abordado de forma aislada, sin ser conscientes de sus interrelaciones. “Debemos ver la película completa”, dijo la responsable de Meta
En tecnología los principales retos éticos no son los obvios, los que nos imaginamos cuando iniciamos los procesos, sino los imprevistos. Salen al cabo de unos años: es como lo que acaba de ocurrir con los más de 100 colegios de Seattle (EEUU), que han demandado a las redes sociales por influir en el cerebro y el aprendizaje de los niños, como recordó Richard Benjamins, Chief AI & Data Strategist de Telefónica y asesor externo del Parlamento Europeo.
Uno de los problemas con los que nos enfrentamos es que no sabemos qué es la Inteligencia Artificial. Es un reto llegar a un consenso para definirla, e incluso en la UE, como dijo Richard Benjamins, “le están dando mil vueltas”. El segundo problema tiene que ver con la definición de lo que es la IA de alto riesgo, la regulación especial cuando afecta a áreas sensibles como el reconocimiento facial, la contratación o la biométrica.
En cualquier caso, los principios jurídicos y éticos deben extenderse a todos los momentos y todos los usos de la IA: “Cuando la desarrollamos, cuando la compramos, cuando la usamos y cuando la vendemos”, recordó el directivo de Telefónica. Sin olvidar una realidad que no podemos soslayar: hay muy poca experiencia publicada. No tenemos suficiente perspectiva para conocer todos los riesgos de su implementación.
La clave de un buen protocolo ético y jurídico en las empresas está en empezar de manera temprana, cuando se inician los procesos. No esperar a que la herramienta empiece a dar sus frutos. Y abordar la IA y la gobernanza de los datos desde un punto de vista multidisciplinar, con “total colaboración entre las áreas jurídica y de tecnología. Es un esfuerzo compartido. A todos les incumbe qué datos se están gestionando”. Es lo que destacó en su intervención Pilar de Vicente Rodríguez, Head of Data & Analytics de FCC.
Tampoco se puede abordar la IA como algo genérico. “Cada vez que se desarrolla una tecnología es necesario aterrizar ese caso. Cada caso de uso merece un análisis diferenciado e intervienen en primera instancia todas las personas que están involucradas”, explicó. Un acercamiento jurídico y ético a los casos de uso, más que a la esencia de la tecnología, en donde coincidió con la visión de la responsable europea de Meta.
Pilar de Vicente defendió también “velar por el principio de minimización de los datos. Tienen que ser pertinentes, ajustados y limitados a los que necesitamos estrictamente”.
Son los propios diseñadores de los algoritmos y los científicos de datos los primeros interesados en un uso ético de su tecnología, subrayó Elena Alfaro, Global Head of Data & Advanced Analytics, Client Solutions, de BBVA.
Pasa lo mismo con las empresas que manejan inmensas bases de datos y con un alto nivel de confidencialidad, como las entidades bancarias. El debate celebrado en KPMG sirvió precisamente para contrastar las guías elaboradas por las principales compañías españolas. En todas ellas se repiten conceptos como la transparencia, la sostenibilidad, la humanización o la insistencia en no sesgar el manejo de los datos para provocar situaciones que afecten a la igualdad y la equidad.
Los usuarios deben saber si hay una persona o es un robot quien elabora una predicción, contesta a un chat o calcula un resultado, como advirtió Elena Alfaro, que pidió además rigor y prudencia. “La responsabilidad recae en personas, no en sistemas”, subrayó la representante de BBVA.
Tener unos principios claros es lo que se plantearon en Telefónica en 2018, con sus primeras guías sobre IA: “Una inteligencia artificial responsable desde el diseño, igual que la privacidad y confidencialidad también desde el diseño”. Y saber graduar la estimación del riesgo: tener claro qué es lo grave y qué es lo importante, según Richard Benjamins.
En Microsoft proporcionan servicios de IA donde han excluido el tratamiento de información que afecta a temas sensibles, como el género o la ideología. Alberto Pinedo, National Technology Officer, observa dos retos en materia de IA. En primer lugar, la formación, no solo de los usuarios y de quienes diseñan los datos y la IA, sino también de los clientes empresariales que contratan esos servicios. El segundo reto tiene que ver con la gobernanza del dato. La lista de principios de Microsoft coincide con los expuestos durante la sesión: seguridad, inclusión, equidad, responsabilidad, seguridad o confiabilidad.
“Lo difícil no es elaborar una lista de principios, lo importante es cómo los pones en práctica, qué herramientas uso, si son o no de pago. La democratización de la IA debería estar en el discurso. La tecnología tiene que ser accesible para todos”, sostuvo Alberto Pinedo. Y tener en cuenta que lo que hoy regulas pronto puede quedarse obsoleto o con derivadas no previstas, como sostenía Richard Bejamins de Telefónica. “Esto evoluciona muy rápido, cada seis meses cambia todo”
Nuria Ávalos, directora General de IndesIA y directora de Consorcios Digitales en Repsol, puso el acento en la diferente percepción que se tienen en las grandes compañías y en las Pymes. En estas últimas se percibe más la IA con miedo y con desconocimiento, como apuntaba Cecilia Álvarez. Las barreras limitan el acceso a la IA y a su aplicación práctica.
Una de estas barreras tiene que ver con la capacitación. Hoy es muy difícil encontrar profesionales preparados incluso para las grandes compañías, más aún para las pequeñas y medianas, según Nuria Ávalos. También necesitan orientación: ahí es donde se crea en 2021 IndesIA, la Asociación Industrial para el Impulso de la Economía del Dato y de la Inteligencia Artificial.
Se trata de “ayudar desde las grandes con mecanismos, metodologías, herramientas. Hemos hecho una plataforma para que esas empresas puedan probar modelos, gobierno de datos, casos de uso. Lo que hemos probado las grandes empresas y que ha dado resultado: así tu curva de aprendizaje es más rápida”, explicó la directora general de IndesIA.
José Ángel Alonso, socio de Lighthouse de KPMG, fue el encargado de cerrar la sesión. Como resumen, unas ideas clave:
Deja un comentario