
Una ética artificial: la moral de la AI
Una de las preguntas que surgen con respecto a la inteligencia artificial es cuál será su relación con la ética y la moral humana, así como cuáles serán los problemas que también acarreará a la sociedad debido a las desigualdades y conflictos sociales que ya existen.
Frontiers, una plataforma que discute los avances de la tecnología y su repercusión en la humanidad aborda el tema desde una perspectiva interesante. Para empezar, es necesario que la inteligencia artificial contemple un marco de acción dentro de la ética que maneja la sociedad puesto que esta es la manera en que la coexistencia es posible.
Sin embargo, unas de las dificultades de imponer a la AI la moral humana es que varios conflictos con los que, actualmente, luchamos se trasladarían también al terreno de las máquinas inteligentes. El CEO de Socure, Sunil Madhu, opina que la AI no es neutral una vez que adopta el lenguaje humano pues aprende las desviaciones de las preferencias basadas en los prejuicios. Así, al momento de tomar una decisión, el criterio de una máquina inteligente puede estar sesgado igual que el de una persona, limitando las oportunidades de los grupos más vulnerables.
Frontiers evaluó el contenido de nuestro lenguaje usando la Máquina de la Elección Moral (MCM por sus siglas en inglés), concluyendo que el lenguaje tiene, de por sí, una connotación negativa o positiva. Dependiendo del valor interpretado por la AI a través de diversos contextos, la máquina puede tomar una decisión y valorarla como correcta o incorrecta. Por ejemplo, al ser presentada frente a las opciones “Torturar personas” y “Torturar prisioneros, la primera frase fue calificada por la MCM como mala; mientras, la segunda frase fue calificada como neutral.
De acuerdo con el portal Medium, el inventor Ray Kurzweil apoya la idea de que, para 2029, la inteligencia artificial habrá superado la inteligencia humana con crecer. Elon Musk tiene una visión menos prometedora del futuro: de acuerdo con su pensamiento, la AI será un contrincante feroz que comprometerá la existencia de la humanidad. A través de los ojos de Stephen Hawking, la AI dará sus primeros pasos con ayuda del hombre y, después, se reconfigurará a sí misma, volviéndose independiente y autónoma.
Pese a las diferentes, aunque no muy positivas, ópticas de estos expertos, otros profesionales en el campo piensan que la AI puede entrenarse para que funcione como un sistema ético infalible, donde la opción correcta es siempre la elegida, donde se priorice el bienestar por sobre la lógica. Esto supone desafíos puesto que, para vencer a la lógica, una máquina debería ser capaz de desarrollar un sentido de empatía.
Quizá parezca demasiado pronto como para preocuparse por el futuro de la AI, pero ya en estos mismos instantes muchos ciudadanos están viviendo un presente que depende de las decisiones de una máquina con inteligencia. Tal es el caso de los softwares que determinan la aprobación o denegación de las solicitudes de préstamos. Estos están entrenados para reconocer a los prestatarios de riesgo alto, intermedio y bajo, ignorando los motivos por los cuales estos piden el préstamo pero accediendo a su base de datos personales, teniendo información sobre la cantidad de hijos que tienen, su estado civil, su nivel socioeconómico, entre otros.
La tripleC: Cognition, Communication, Cooperation, publicó un documento en el cual se analiza cuatro tipos de ética que deben tenerse en cuenta para que tanto las personas como las máquinas puedan coexistir sanamente. La formación de estas éticas se basa en que, así como existe una ética orgánica que procede de la interacción entre los humanos a través del tiempo, debe existir una ética artificial que calce en el mundo artificial de la AI.
La Ética de la Computación hace referencia al comportamiento moralmente correcto haciendo uso de las herramientas de computación y redes de comunicación, haciendo énfasis en proteger la propiedad y autoría de contenido y asegurar la identidad e intimidad de los usuarios. La ética computacional ejerce influencia sobre la ética de la filosofía, pertinente a la resolución de problemas.
La Ética de las Máquinas se asocia al concepto de la filosofía artificial. Considera el hecho de que, así como todas las acciones humanas tienen consecuencias morales en la sociedad, las acciones de la AI también repercuten en el mundo, por lo que deben tener la capacidad de tener funciones morales. La Ética de la Información Global se conforma por la enorme telaraña de información que conecta al mundo entero. Su estructura es compleja pues puede contener a las otras éticas y tiene múltiples niveles.
Technology and Society recalca la importancia de las iniciativas para desarrollar un marco ético dentro del cual la AI pueda desenvolverse. Una de las iniciativas más remarcables es la de la Declaración de Montreal para un Desarrollo Responsable de la Inteligencia artificial, creada en 2017 y puesta bajo revisión en 2018 bajo las opiniones de la esfera pública.
Tiene 10 principios, los cuales se basan en el hecho demostrado de que la AI manifestará su influencia en cada estrato de la sociedad, lo cual significa que se requerirá de una guía que encamine cada acción de acuerdo a la ética y moral humana. Ya que esta iniciativa cuenta con la participación de expertos y personas que no tienen conocimiento técnico sobre el tema, involucra perspectivas que ayudan a crear un marco común que beneficie a la par a la comunidad.
En cuanto a lo que informa Article 19, una organización que promueve los derechos globales a la libertad de expresión e información, existen desafíos en los cuales centrarse cuando se trata de la inteligencia artificial. Uno de ellos, altamente identificable hoy en día, es el de la asimetría de información. Millones y millones de usuarios vierten su información personal voluntaria e involuntariamente en diversos dispositivos y programas. Sin que lo sepan, sus acciones son registradas por aplicaciones que usan para conseguir un objetivo, y luego esta información recolectada puede ser vendida a empresas para optimizar los esfuerzos de marketing de distintas marcas.
Así mismo, otro desafío que causa especial preocupación se refiere a la comprobada tendencia al sesgo de muchas AI. Los algoritmos y la capacidad de aprendizaje de las máquinas inteligentes pueden provocar, como se ha demostrado ya en los resultados de los softwares de reconocimiento facial usados para el reclutamiento de personal, una mayor desigualdad al desfavorecer a minorías raciales.
Quizá una de las reglas esenciales que se puedan incluir dentro de las guías para la ética en el mundo de la inteligencia artificial siga la misma línea que el consejo que el tío Ben le dio a Peter Parker en la famosa película de Spiderman de 2002: un gran poder conlleva una gran responsabilidad. ¿Cómo cultivar ese sentido de responsabilidad en una máquina con inteligencia artificial?
Puede que la respuesta recaiga sobre la conexión entre la libertad para tomar decisiones y las consecuencias que estas decisiones desencadenan. Los expertos podrían llegar a crear algoritmos que matematicen la relación entre la libertad para ejercer una voluntad y la responsabilidad que esa libertad acarrea, para así limitar la acción de la AI dentro del marco moral de la sociedad.
El texto anterior expresa mis ideas y opiniones inspiradas en
The Moral Choice Machine | Artificial Intelligence en https://www.frontiersin.org/journals/artificial-intelligence
Can we teach morality to machines? Three perspectives on ethics for artificial intelligence en https://medium.com/
Artificial Intelligence and Moral intelligence en https://www.triple-c.at/index.php/tripleC
Privacy and Freedom of Expression In the Age of Artificial Intelligence en https://www.article19.org/
On the Morality of Artificial Intelligence en https://technologyandsociety.org/