18. Los dilemas éticos de la inteligencia artificial
La promesa de que la inteligencia artificial cambiará nuestras vidas ya se ha cumplido. El reto está en integrar los robots en nuestro día a día.
La promesa de que la inteligencia artificial cambiará nuestras vidas ya se ha cumplido. Sobre esta tecnología se desarrollan máquinas y robots –aunque la mayoría sin forma humanoide– que están teniendo un profundo efecto en sectores como el industrial, el laboral, el educativo, la atención médica o el transporte. Y con repercusiones cada vez más visibles en el día a día a través de los asistentes de voz, la domótica en el hogar o las plataformas de streaming de contenidos o música, entre muchos otros.
La IA permite el desarrollo de máquinas inteligentes y autónomas, con capacidad para ser entrenadas para ‘pensar’ y tomar decisiones. Su presencia cada vez más generalizada ha propiciado la creación de un nuevo contexto en las relaciones que las personas mantienen con ellas, con implicaciones hasta ahora inexistentes desde el punto de vista ético y jurídico. “Debemos ir más allá de las normas éticas, puesto que éstas no cuentan con garantías jurídicas […]. La autorregulación no es bastante. Si las normas son solo voluntarias, algunas compañías de tecnología decidirán no atenerse a las reglas que no les benefician”, apunta Moisés Barrio, letrado del Consejo de Estado, profesor de Derecho Digital y consultor.
Barrio ha analizado, en su libro Derecho de los Robots, las cuestiones suscitadas por el despliegue de la robótica y de la IA en la sociedad, considerando aspectos científicos, jurídicos, médicos y éticos: “Los retos más urgentes son el de la responsabilidad y la revisión de los esquemas de tributación y de cotización a la Seguridad Social”. De ahí que defienda la necesidad de la creación de una disciplina jurídica para regular este ámbito de uso de la tecnología. “Esta nueva rama deberá aprovechar las técnicas y avances del Derecho de Internet, y estudiar los problemas de privacidad, responsabilidad civil y penal, consumo y seguridad, entre otros, que los robots están empezando a plantear. No faltan autores que defienden la creación de una Comisión Federal de Robótica o Agencia europea equivalente que regule esta materia”.
A día de hoy, algunas tecnológicas ya han tomado conciencia de la importancia de regular en este ámbito. El CEO de Google, Sundar Pichai, publicó hace más de un año una declaración de intenciones por la que se iban a regir en la compañía para la investigación y desarrollo de soluciones basadas en inteligencia artificial. Microsoft, por su parte, también ha hecho los deberes en este sentido manifestando cuáles son los principios éticos que requieren la creación de sus soluciones. Ambas empresas, a su vez, son miembros activos del AI Now Institute, el instituto de investigación creado en 2017 por Kate Crawford, investigadora de Microsoft Research, y Meredith Whittaker, fundadora del grupo Open Research de Google, en el que se analizan y estudian las implicaciones sociales de la inteligencia artificial.
En cuanto al papel de los Estados, en mayo de 2018 se presentó la Declaración de Toronto que, además de describir las responsabilidades de los actores privados en el desarrollo e implementación de la IA, también establece el deber de los gobiernos de prevenir e identificar los riesgos de estos sistemas. El Reino Unido ya tiene un plan al respecto con la creación del Centre for Data Ethics and Innovations (CDEI). Su función es ofrecer recomendaciones y asesorar a los reguladores y la industria para fomentar la innovación responsable.
El Parlamento Europeo, por su parte, está trabajando en el documento Ethics Guidelines for Trustworthy Artificial Intelligence. En él se establecerán las directrices para el desarrollo de sistemas IA en el ámbito de la UE, que han de cumplir tres requisitos: ser legales, éticos y robustos.
Los 5 principios éticos de la Inteligencia Artificial
Las normas y principios éticos que han desarrollado dos de los mayores gigantes tecnológicos, Google y Microsoft, que además forman parte del AI Now Institute, tienen en común varias premisas que guiarán el desarrollo de la inteligencia artificial de la próxima década:
- Beneficio social: El desarrollo de la inteligencia artificial impacta en sectores con un gran alcance social como el sanitario, energético, transporte…
- Inclusivo: Los modelos pueden contener sesgos, por lo que es imprescindible que en el desarrollo de la inteligencia artificial evite reforzar, fortalecer o reflejar sesgos injustos hacia colectivos de la sociedad.
- Garante de la privacidad: Los datos sobre los que se sustenta el desarrollo de la inteligencia artificial deben haber sido obtenidos con el consentimiento expreso de sus propietarios, como recoge el RGPD.
- Transparente y explicable: Los modelos de inteligencia artificial deben ser capaces de explicar por qué toman determinadas decisiones de forma transparente y comprensible, para que la tecnología cuente con la confianza de todos los actores implicados.
Uno de los propósitos de estas iniciativas es construir una inteligencia artificial ‘confiable’, aunque Moisés Barrio cree que no son suficientes: “las directrices éticas son un paso muy relevante para regular la materia, pero este enfoque tiene graves carencias. Aquí quiero destacar dos: los criterios son en muchas ocasiones demasiado vagos; además, no hay incentivos suficientes para aplicarlos y tampoco prevén ningún mecanismo de supervisión por las instituciones de la UE o de los Estados miembros”.
Empezar por el control y la explicabilidad
Una de las prioridades para las empresas en sus programas de Inteligencia Artificial es la de crear marcos de control adecuados capaces de conocer los algoritmos y poder explicar las decisiones que toman sus modelos conforme aprenden de la experiencia.
Eva García San Luís, socia responsable de Inteligencia Artificial de KPMG en España, recuerda que “para que la IA pueda aportar valor es muy relevante no perder el control de los modelos conforme se van haciendo más complejos y poder explicar cómo y por qué están tomando determinadas decisiones”, expone ya que es la base de la confianza en esta tecnología.
Con la expresión human in the loop, Eva García San Luis alude a la importancia de que el proceso de la IA sea iterativo y cuente con control humano en todas las fases del ciclo de vida de los modelos, desde la concepción y estrategia, a lo largo del entrenamiento y la construcción del modelo y hasta la monitorización continua. “No puedes tener modelos en tu empresa que sean una caja negra igual que no tendrías un empleado al que nunca evalúas o das feedback”, resalta la socia responsable de Inteligencia Artificial. “Si lo haces te expones a que tome decisiones que no son las esperadas o que son incorrectas desde un punto de vista estratégico e incluso ético”.
Es el caso de los sesgos detectados en determinados modelos como aquellos aplicados a procesos de selección o a la concesión de créditos al consumo, entre muchos otros. “Si la información de entrenamiento y los datos históricos sobre los que se construye y se calibra el modelo están sesgados, los resultados serán erróneos, incompletos o inestables”, subraya Eva García San Luis.
Son muchos los retos tecnológicos, regulatorios, de talento o de estrategia que están afrontando las empresas en su apuesta por la inteligencia artificial. A la hora de tomar decisiones y asumir los resultados de sus modelos, los líderes empresariales necesitarán confiar en ellos y contar con un marco que facilite esta transparencia y comprensión. “Solo la confianza y la explicabilidad facilitarán una adopción a gran escala de la inteligencia artificial capaz de transformar radicalmente las empresas y los sectores”, concluye Eva García San Luis.
Un dilema ético difícil
Actualmente, parece difícil encontrar una solución ética a las cuestiones que plantea la IA. Hace unos meses empezaron a publicarse las primeras noticias sobre pruebas con coches autónomos. Al margen de sus resultados, uno de los debates que surgieron fue el de la capacidad de estas máquinas para tomar una decisión ante determinadas situaciones de peligro, sobre todo aquellas en las que el vehículo no tenía más remedio que decidir entre la vida de una persona u otra. En el Massachusetts Institute of Technology (MIT) han puesto en marcha el experimento Moral Machine para recopilar información sobre cuál sería la medida más acertada, según las personas participantes, en cuestiones como la planteada.
La forma de resolver este tipo de conflictos en el futuro no parece ni fácil ni estar del todo clara. Volviendo al caso de los vehículos autónomos: “como sociedad, tenemos que determinar qué nivel de responsabilidad en la conducción, seguridad o siniestralidad vamos a exigir a este nuevo tipo de automóviles autónomos: ¿el mismo que el de un conductor medio, el de un conductor sobresaliente, u otro nivel creado específicamente para este tipo de coches?”, plantea Moisés Barrio.
“La cuestión es relevante porque, dependiendo de dónde emplacemos el nivel de seguridad exigible y el de responsabilidad asociado al anterior, podemos afectar a la disponibilidad comercial de esta nueva tecnología”. En este punto se plantea otra cuestión: ¿será posible el desarrollo de algoritmos justos y carentes de sesgos? “Técnicamente es posible pero requiere contar con equipos interdisciplinares en los que estén implicados también juristas, sociólogos y filósofos, entre otros”, concluye Barrio.
Apostar por la inteligencia artificial supondrá un antes y un después en tu modelo de negocio
Deja un comentario