En las últimas semanas, hemos oído y visto numerosas noticias sobre Inteligencia Artificial, en adelante IA, y ello nos hace pensar que este boom informativo alrededor de esta tecnología tiene su porqué. Es una realidad que las organizaciones ya están trabajando en implantar IA, con el objetivo de mejorar la eficiencia de sus procesos y explotar otros que por el momento no se habían explotado. La revolución generada por la IA y el impacto que está teniendo en la forma de hacer negocios y relacionarnos entre nosotros es evidente.
¿Pero cuáles son los últimos eventos alrededor de esta tecnología?
En nuestro artículo sobre las nuevas obligaciones en camino para los entornos de IA, ya hablábamos sobre la propuesta de reglamento de Inteligencia Artificial de la Comisión Europea. Dicho proyecto todavía se encuentra en tramitación en el parlamento, aunque se prevé su aprobación definitiva a lo largo del 2023.
Destacamos también que el texto prevé la designación de autoridades de IA en los estados miembros y en España ya se ha probado su creación. La Agencia Española de Supervisión de la Inteligencia Artificial o AESA, estará ubicada en la ciudad de A Coruña y gozará de autonomía, independencia, patrimonio propio y potestad administrativa para asegurar el cumplimiento de la regulación europea.
Por otro lado, China se ha adelantado a la Unión Europea y ya está comenzando a regular la IA. En concreto, ha aprobado una ley ya en vigor, que regula el uso de los “deep fakes” o técnicas de síntesis de imágenes humanas basadas en IA. Una de las principales novedades de esta norma es la obligación de identificarse por parte de los titulares previo al uso además la difusión de “fake news” o noticias falsas queda prohibida.
Sin embargo, el proceso por el cual tiene que pasar una regulación hasta su aplicación, acaba dilatándose demasiado en el tiempo, provocando que determinados espacios se encuentren, de alguna manera, vulnerables. Es por este motivo que diferentes asociaciones relevantes del sector se han hecho eco de estos avances y también se han pronunciado al respecto, ofreciendo sus análisis y recomendaciones sobre cómo se debe actuar en un nuevo contexto. Es el caso de la IAPP, que ha realizado un exhaustivo estudio con el objetivo de informar sobre diferentes enfoques para gobernar la IA en general y explorar como estos nuevos esfuerzos se cruzan con la gestión de la privacidad.
Por su parte el instituto Nacional de Estándares y Tecnología de los Estados Unidos (NIST) acaba de publicar el Marco de Gestión de Riesgos de la IA (AI RMF 1.0). Se trata de un documento que sirve para orientar a las organizaciones que diseñan, desarrollan, despliegan o utilizan sistemas de IA para ayudar a gestionar los numerosos riesgos de las tecnologías de IA. Por supuesto, este marco no es vinculante, es un marco al que las compañías podrán adherirse de manera voluntaria.
Es evidente que las autoridades y los gobiernos están empezando a dar los primeros pasos, sin embargo, los actores tecnológicos continúan desarrollando nuevas herramientas y servicios que plantean nuevos escenarios y riesgos.
Cada día encontramos más herramientas que, haciendo uso de la IA, llevan a cabo distintas tareas de carácter cada vez más complejo. Algunos ejemplos podrían ser, Sintesia (plataforma online que crea vídeos con avatares humanos y voces generadas con inteligencia artificial) u Otter (herramienta de conversión o transcripción de texto usando la IA.) aunque, sin duda, la que más está dando que hablar últimamente es CHATGPT.
CHATGPT es un servicio de chatbot (software basado en la IA capaz de simular una conversación con un usuario ofreciendo respuestas automáticas) que utiliza un modelo de lenguaje denominado GPT desarrollado por OpenAI. Esta tecnología usa más de 175 millones de parámetros y entrena con grandes cantidades de texto, de esta manera puede generar respuestas similares a las humanas.
Pero ¿qué es lo que hace que esta herramienta este dando tanto que hablar? CHATGPT puede mantener conversaciones, dando respuestas coherentes y contestar preguntas de forma precisa y acertada. Sus algoritmos le permiten entender conversaciones complejas y ofrecer respuestas similares a las daría una persona. Aun así, es importante destacar que, si bien, es capaz de dar información acertada, no siempre generará respuestas del todo concisas o apropiadas, pues al final, se trata de una herramienta que basa su conocimiento en los parámetros y la información que le ha sido proporcionada; en el caso de que no haya recibido la formación adecuada, no podrá ofrecer una respuesta exacta o congruente.
La tecnología avanza y nos ofrece soluciones cada vez más creativas y sofisticadas aumentando la calidad, la eficiencia y la productividad de las herramientas que utilizamos a diario. Sin embargo, en paralelo, los ciberdelincuentes también avanzan y buscan distintas fórmulas para explotar estos nuevos escenarios. De hecho, CHATGPT ya se ha visto comprometida por los ciberdelincuentes que ya han utilizado la solución de OpenAI para crear malware y otras herramientas para realizar ciberataques, según ha descubierto una investigación de Check Point Research.
Sin embargo, es importante mencionar, que hay más riesgos a parte de los ciberdelincuentes, pues existen otro tipo de amenazas relacionadas con el impacto que tienen estas herramientas en nuestro día a día y en nuestros derechos. La implantación de estas nuevas tecnologías plantea diferentes cuestiones alrededor de la privacidad, la formación de la propia identidad, la atribución de responsabilidad o los sesgos en el procesamiento de datos que vienen provocadas por la falta de visión humanística en el diseño de las maquinas. Por lo tanto, el avance de la IA no solo trae nuevos retos y amenazas en relación a la ciberseguridad, sino que acarrea un debate ético y jurídico relevante que hace necesaria su regulación tal y como avanzamos en los primeros párrafos de este artículo.
Es esencial asegurarse de que la tecnología se utilice de manera ética y responsable y evaluar su rendimiento e impacto con regularidad además se deberá considerar con detenimiento la necesidad de implantar medidas de seguridad adecuadas y adaptadas a la nueva realidad. Dichas medidas pasan por ejecutar pruebas de penetración, implementar arquitecturas basadas en el Zero Trust o invertir en formación actualizada y adaptada al momento actual.
Contar con una correcta gestión y control de los diferentes usos de la IA y sus riesgos se está convirtiendo en un elemento vital para así poder analizar de forma racional los posibles riesgos, mitigarlos de forma adecuada, y trasladar confortabilidad a los negocios. Desde KPMG, trabajamos en un enfoque integral para la gestión de dichos riesgos que engloben los diferentes ámbitos en los que un sistema o proceso puede llegar a verse comprometido.
Con las medidas de seguridad adecuadas implementadas, los diferentes usos de la IA pueden ayudarnos, no solo a mejorar nuestros procesos y optimizar servicios sino a mejorar nuestra relación con la tecnología.
Deja un comentario