Autores del artículo: Noemí Brito, socia en el área Mercantil, responsable del área de Propiedad Intelectual y Nuevas Tecnologías de KPMG Abogados; Usman Wahid, Partner, Head of Technology Law, KPMG Law in the UK; Isabel Simpson, Partner, Data Protection, Technology and Telecommunications Practice Group Lead, EMA; Nadarashnaraj Sargunaraj, Head of Technology, Privacy and Cybersecurity, Zaid Ibrahim & Co. (in association with KPMG Law).
Al tiempo que la productividad alcanza nuevas cotas tras la llegada de la IA generativa, también las organizaciones se ven expuestas a nuevos riesgos, como la violación de la privacidad de los datos, la pérdida del secreto profesional entre abogado y cliente, el aumento de regulación, el ransomware (entre otros riesgos y amenazas a la ciberseguridad) y el daño reputacional asociado, entre otros
Y es que las nuevas capacidades para acceder, manipular y analizar gran cantidad de datos están obligando a los profesionales jurídicos, los reguladores y a los grupos políticos a sopesar el potencial de la tecnología para impulsar un cambio social positivo frente a los peligros de exponer información personal sensible. En este escenario, cabe preguntarse: ¿Cómo se adaptarán a estas tendencias los departamentos jurídicos del futuro? Estas son nuestras cinco predicciones:
La aplicación de la IA generativa y otras nuevas tecnologías en el trabajo jurídico aumentará significativamente la eficiencia y la productividad. Y estas ventajas se irán incrementando a medida que los profesionales jurídicos se sientan más cómodos en el uso de estas potentes herramientas y sigan desarrollando formas más constructivas de emplearlas.
La dependencia de la IA generativa aumentará y los equipos jurídicos deberán mantenerse alerta ante los riesgos que ello conlleva. Por ejemplo, el uso de la IA generativa para fundamentar el asesoramiento jurídico podría dar lugar a filtraciones de datos que podrían afectar al secreto profesional. Y, a la larga, a medida que la IA vaya asumiendo cada vez más tareas jurídicas rutinarias que antes realizaban abogados juniors, existirán menos personas en la organización con las aptitudes necesarias para hacer ese tipo de trabajo.
Los profesionales del ámbito jurídico deberán evitar el hecho de aceptar que el resultado de un ordenador es correcto sin cuestionar el razonamiento que lo sustenta. Deberán desarrollar la capacidad de trabajar en sentido inverso a partir de los resultados obtenidos para explicar cómo se ha llegado a una conclusión jurídica y verificar de forma independiente si es correcta en aplicación de criterios de dirección jurídica y de deontología profesional. Los abogados también tendrán que identificar con determinación qué procesos se adaptan bien a la IA y en cuáles necesitan mantener las competencias necesarias para verificar la legitimidad y exactitud de los resultados de esta. En todo caso, la aplicación de esta tecnología a la prestación de los servicios legales deberá responder a criterios responsables y confiables.
A medida que se promulgue la nueva legislación sobre IA, los equipos jurídicos asesorarán a sus clientes sobre su implantación. Los departamentos jurídicos tendrán que entender la normativa para poder establecer marcos jurídicos que permitan a la organización innovar y utilizar estas nuevas herramientas. Este uso debe ajustarse a las nuevas leyes y normativas, en constante evolución, y debe realizarse de forma segura y fiable.
Dentro de estos marcos, los equipos jurídicos deben establecer protecciones optimizadas para la empresa, de modo que puedan aprovechar al máximo las oportunidades de negocio y, al mismo tiempo, evitar que sus organizaciones incurran en riesgos. Las herramientas de IA generativa (GenAI) y la IA de modelo de lenguaje extenso (LLM) pueden integrar, analizar, resumir y automatizar datos y normativa un nivel muy superior a la tecnología actual. Los profesionales jurídicos que aprendan a utilizar la tecnología tanto para mejorar la productividad, como para promover su uso responsable y confiable en las organizaciones con las que trabajan (TrustedAI) tendrán una clara ventaja competitiva.
Los revolucionarios sistemas de IA tienen un enorme potencial para contribuir a resolver diversos problemas sociales, como las enfermedades o la discriminación de proveedores basada en la diversidad. Sin embargo, estos sistemas requieren grandes cantidades de datos personales para elaborar conclusiones estadísticas fiables, lo que plantea la cuestión de si se dispone de los permisos y salvaguardas adecuados para procesar estos datos.
Seguirán aumentando las restricciones regulatorias al uso de datos, como la normativa sobre localización y soberanía de datos, aunque algunas jurisdicciones, como es el caso del Reino Unido, intentarán simplificar esa normativa para fomentar la innovación y el intercambio de datos. O como la Ley de Protección de Datos de la UE que pretende permitir a las autoridades poner los datos públicos a disposición de la comunidad en general a través de un fideicomiso público de los mismos (cesión altruista de datos).
Resulta probable que los equipos jurídicos aumenten el uso de la tecnología de privacidad basada en IA para demostrar el cumplimiento de la nueva legislación en materia de protección de datos. Esta tecnología también puede hacer que el análisis de datos jurídicos sea más eficiente y, en última instancia, facilitar que las decisiones jurídicas sean más coherentes.
A medida que el aprendizaje automático, los grandes modelos de lenguaje y la IA generativa sigan avanzando y recopilando enormes volúmenes de datos, será cada vez más difícil rastrear y verificar las fuentes utilizadas para entrenar estas tecnologías. En la actualidad, hemos asistido a varios litigios sobre el uso por parte de la IA de textos y obras de arte protegidos por derechos de autor para generar nuevos contenidos. La imposibilidad de demostrar quién es el «propietario» de una fuente de datos original podría frustrar los intentos de obtener protección de la propiedad intelectual para los resultados generados por la IA.
Las dificultades para rastrear los datos también pueden hacer que las empresas incumplan la legislación sobre privacidad al obstaculizar su capacidad para cumplir los derechos de los interesados, como las solicitudes de acceso o supresión.
Los equipos internos de privacidad tendrán que ampliar su enfoque para agilizar los procesos y controles y adaptarse a los riesgos y normativas relacionados con la IA. Los departamentos jurídicos deberán tener la capacidad de desarrollar rápidamente políticas, procedimientos y controles internos para seguir el ritmo de estos nuevos usos.
Resulta probable que las amenazas de ciberseguridad se multipliquen en el futuro, a medida que los ciberdelincuentes aumenten su pericia en el uso de la IA generativa para desarrollar ransomware, eludir las protecciones, difundir desinformación y cometer otros delitos. Los equipos jurídicos tendrán que responder a estos riesgos de varias formas:
También cabe esperar que los gobiernos se impliquen para garantizar que las empresas dispongan de políticas y procedimientos de gobernanza adecuados en materia de ciberseguridad. En un futuro inmediato, es muy probable que asistamos a la promulgación de nuevas leyes que obliguen a las organizaciones a implantar sistemas de privacidad y de ciberseguridad más sólidos y a responder con eficiencia a las brechas y ataques. Los profesionales jurídicos tendrán que ayudar a las compañías a desarrollar estrategias para cumplir estas normas.
Deja un comentario