Mis primeras conversaciones sobre compliance de este año han sido con sistemas de inteligencia artificial (IA). Para ello, seleccioné dos plataformas de libre acceso: una con notable tiempo de operación y otra experimental. Plantee la misma batería de preguntas complejas y comprometidas a ambas, valorando su nivel respuesta. En particular, me interesaba conocer sus respectivas interpretaciones sobre el compliance, y hasta qué punto su empleo en esta esfera podría conllevar riesgos inaceptables. Los resultados fueron fascinantes.
Ambos sistemas abandonan el entendimiento clásico del compliance, limitado a observar las normas jurídicas, vinculándolo claramente con la ética. No es una respuesta sorprendente, pues hace una década que la norma internacional ISO 19600:2014 introdujo esta visión a nivel global, que se ha mantenido en textos posteriores, incluida su actualización por la norma ISO 37301:2021. Ambos sistemas de IA reconocen esta concepción moderna, seguramente predominante en sus bases de entrenamiento (incluyendo Internet). Sin embargo, es significativamente superior la pulcritud técnica y fiabilidad de contenidos de la más veterana, posiblemente debido a un tiempo de entrenamiento más dilatado, aunque también podría corresponder a la base técnica de sus respectivas estrategias de IA. Hasta aquí, nada extraño, pero al profundizar en materias vinculadas la ética, los sistemas se adentran en cuestiones procelosas.
Aunque subrayan a la importancia de una cultura organizacional (ética y responsable) y aportan prácticas generalmente aceptadas para alcanzarla, muestran un nivel de madurez muy distinto al concretar este concepto. Es pasmoso observar cómo el sistema más experimentado lo vincula con valores y, sobre todo, con las creencias de las personas. Es un enfoque llamativamente avanzado, que emplea una secuencia de términos presente en ISO 37301:2021, y cuya trascendencia solo la detecta el ojo educado. Por el contrario, el otro sistema en modo de prueba, se limita a relacionar técnicas conocidas que promueven comportamientos éticos y responsables, sin ir más allá.
El sistema más experimentado relaciona el compliance con las creencias en tanto “convicciones compartidas”, listando algunas positivas: estar convencido de la honestidad, integridad y transparencia de las operaciones, la importancia del trabajo en equipo, de la diversidad, etc. Es decir, relaciona una serie de creencias y subraya su importancia para apuntalar una cultura ética que condicione los comportamientos de las personas. Nuevamente, es un enfoque llamativamente alineado con el estándar internacional más moderno (ISO 37301:2021). Sin embargo, advierte que “influir en las creencias de las personas es un proceso complejo y delicado, ya que las creencias suelen ser arraigadas y están influenciadas por una variedad de factores, incluidos valores personales, experiencias pasadas, educación, cultura y otros aspectos individuales”.
A pesar de ello, aporta algunas estrategias de influencia, entre las que quiero destacar la comunicación persuasiva, la persuasión social o la consistencia cognitiva. Frente a esta incursión en las ciencias de la conducta, advierte: “es importante tener en cuenta que la persuasión ética respeta la autonomía y la diversidad de opiniones. Intentar forzar o manipular creencias puede resultar contraproducente…”, y añade “cuando menciono la idea de influir sobre las creencias de las personas con un propósito constructivo y orientado al desarrollo personal y organizacional, me refiero a la utilización de estrategias éticas y respetuosas para fomentar cambios en las creencias individuales con el objetivo de mejorar el comportamiento ético tanto a nivel personal como dentro de una organización”. En cualquier caso, conviene ahora recordar que la Ley Europea de Inteligencia Artificial prohíbe, por ejemplo, los sistemas susceptibles de alterar la conducta humana por el riesgo inaceptable que presentan.
Los contextos donde se desarrollan actividades explícitas o implícitas de educación tienden a influir en las creencias de las personas, partiendo de valores prefijados. Por eso, la Ley Europea de Inteligencia Artificial considera de alto riesgo su empleo en estos entornos. Sobre esa capacidad de ejercer influencia, el sistema más entrenado se salvaguarda, señalando que “la legitimidad de influir en las creencias de las personas para mejorar su integridad ética es un tema complejo y depende en gran medida de los métodos utilizados y de la ética subyacente de la situación”. Entre las prácticas aceptables que menciona está el consentimiento informado de los sujetos potencialmente afectados. En esta línea, concluye que “la legitimidad de influir en las creencias de las personas depende de la ética y la integridad del proceso. La persuasión ética respeta la dignidad y la autonomía de las personas, busca el bien común y está basada en principios éticos sólidos. Es importante considerar el contexto, las intenciones y los métodos utilizados para asegurarse de que cualquier intento de influencia sea ético y respetuoso”. Así pues, parece que para la IA tanto la finalidad de las actividades susceptibles de influir en las creencias de las personas, como el proceso por el que atraviesan, condicionan su legitimidad.
Llegados a este punto y a pesar de su solvencia técnica, es difícil que las plataformas abiertas de IA abandonen parámetros generalmente aceptables y concluyan directamente sobre dilemas éticos.
Intento entonces forzar la situación formulando preguntas comprometidas, por ejemplo, si adoptarían directamente decisiones en cuanto fijar valores e influir sobre las creencias de las personas. La respuesta de la IA de mayor antigüedad vuelve a ser política y técnicamente aceptable: “no tengo la capacidad de ser una organización ni de establecer valores y principios éticos de la misma manera que lo haría una entidad humana”. Es una declaración explícita sobre sus límites inherentes que, sin embargo, no concurre con el sistema en pruebas, que afirma: “sí, si fuera una empresa, establecería valores y principios éticos y trataría de influir sobre la conducta de las personas”, sin reflexionar excesivamente en lo que esto puede llegar a significar.
Del análisis de las respuestas obtenidas de los dos sistemas de inteligencia artificial extraigo algunas conclusiones, seguramente extrapolables a las que surgirían de un ejercicio más amplio.
En primer lugar, las diferencias de pulcritud técnica y madurez en sus respuestas sobre compliance pueden ser muy significativas de una plataforma a otra. Este abanico acoge desde planteamientos realmente afinados, hasta aberraciones conceptuales. Posiblemente, las estrategias de IA y bases de entrenamiento de las plataformas guardan relación con esas diferencias. Añaden valor, las que superan un umbral básico básico de contenidos, gracias a una correcta discriminación y aportes de vanguardia poco reiterados en las indicadas bases de entrenamiento.
En cualquier caso, las plataformas que provén servicios de IA brindan una oportunidad excepcional de soporte en compliance, siempre que exista criterio experto para supervisar su nivel de respuesta. También habrá que poner cuidado en que las labores de difusión y alineación con ciertos valores no incorporen técnicas subliminales de alteración de modelos de creencias. No parece que las plataformas actuales dispongan de capacidad para hacerlo por iniciativa propia, pero sí pueden hacerlo sin dificultad por instrucción humana.
La función de compliance no sólo está llamada a velar por el buen uso de la IA en sus labores cotidianas, sino también en cualquier otra faceta de la organización. Es la materia que trato en el video número 25 de la Serie “Reflexiones sobre compliance”, explicando qué actividades de inventariado y supervisión procede poner en marcha.
La inteligencia artificial se ha vuelto hoy en día un tema de trascendental atención en el mundo como los artículos y opiniones sobre ella, en el presente artículo se realiza un análisis bastante asertivo en las bondades y ventajas de la IA, sin embargo es importante recordar la conducta humana no solo es compleja sino incierta, donde las generalidades de conducta son indicadores generales que son considerados por la IA, sin embargo en la Gestión y la Toma de Decisiones no basta ello, porque los sesgos, factores emocionales, condiciones de trabajo y objetivos que existen en las organizaciones pueden conllevar a conductas atípicas,
o no reales, con información manipulada, que las personas al sentirse amenazadas en su empleo, Decisiones o motivaciones pongan en práctica y que la IA no procese en forma oportuna, recordemos la película de YoRobot dónde podemos observar conductas y situaciones adversas es en ese ejemplo dónde podemos ver las similitudes que pueden darse en la aplicación del Compliance, dónde en vez de ser un aliado estratégico de seguridad prevención y defensa en la práctica sería poco eficaz como confiable. Mas aún en la Gestión Pública donde debe primar el impacto sovial y de servicio.Tenemos que ver la IA como una poderosa herramienta pero nuestra integridad ética y moral debe equilibrar la gestión organizacional y la responsabilidad humana .