Written by 9:05 pm ciencia y tecnologia

La importancia de lograr una Inteligencia Artificial más transparente

Actualmente transitamos una era en donde la Inteligencia Artificial está siendo implementada con gran rapidez en numerosos aspectos de nuestras vidas. Por el momento, su tarea es la de asistir a sistemas computarizados para que éstos cumplan sus funciones de manera más rápida y eficiente. Si bien muchos de ellos aún no cuentan con una autonomía completa, es lógico esperar que eventualmente la consigan, por lo que es esencial que se comiencen a fijar ciertos límites y salvaguardas a su manera de operar.

Durante la década de los 50s, el expansivo concepto de la Inteligencia Artificial (IA) comenzó a explorarse académicamente para, entre otras aplicaciones, crear sistemas computarizados capaces de solucionar complejos problemas matemáticos. Sin embargo, algunos investigadores se dedicaron de lleno a intentar lograr el ambicioso objetivo de emular artificialmente las redes neuronales de nuestro cerebro. Esto fue lo que llevó al ingeniero en computación norteamericano Frank Rosenblatt a la creación del Perceptron, un dispositivo que era capaz de aprender mediante la interpretación de datos cargados a su sistema.

Debieron pasar varias décadas para que las aplicaciones prácticas de la IA llegaran a implementarse más intrínsecamente en nuestra sociedad. En la actualidad, el uso de complejos algoritmos que facilitan a distintos sistemas a operar de manera autónoma está generando algunas reticencias –tanto en la población como en quienes ayudan a crearlos- relacionadas con los riesgos que esto implica. Entre los numerosos expertos que intentan promover una concientización sobre la transparencia en el funcionamiento de la IA se encuentra Steve Eglash, profesor y Director del Departamento de Ciencias de la Computación de la Universidad de Stanford, California.

Los usos prácticos de la IA son múltiples y, desde su apreciación conceptual, se encuentran bien justificados. El procesamiento de enormes bases de datos para llegar a una toma de decisión en tiempo real sólo le es posible de realizar a un avanzado y potente sistema computarizado. Si bien los beneficios de la IA para realizar tareas repetitivas son enormes –sobre todo para la industria-, existen muchas otras áreas en las que su implementación puede tener consecuencias potencialmente devastadoras. Es por ello que el Departamento de Defensa de los EEUU ha previsto una serie de lineamientos con los que deben contar determinados sistemas operados por la IA.

La Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) norteamericana ha desarrollado un programa llamado Explainable Artificial Intelligence (XAI), el cual apunta a lograr una comprensión detallada de sus sistemas militares operados por IA. Para un organismo como DARPA, es vital la creación de un modelo que le permita comprender el razonamiento de su IA, así como lograr que estos sistemas destaquen sus fortalezas/debilidades y generen una confianza en su implementación, entre muchos otros objetivos. 

El otorgarle total independencia a un sistema operado por la IA crea cuestionamientos acerca de la ética y transparencia con la que operan éstos programas. Esto surge inevitablemente del mismo concepto que impulsó la creación de la IA: emular al cerebro humano. Actualmente, sistemas de reconocimiento facial como Rekognition de Amazon, están generando un acalorado debate sobre los prejuicios con los que detecta las emociones, el género y la raza de las personas que escanea. Debido a que se trata de un programa utilizado por diferentes fuerzas policiales de Norteamérica, resulta ser un claro ejemplo de los riesgos de contar con un sistema semejante que opere con IA.

El profesor Eglash asegura que es crucial poder entender la manera en que los sistemas basados en la IA funcionan ya que ellos actualmente se encuentran a cargo de la operatividad de un gran número de las llamadas misiones críticas. Fabricación masiva de productos químicos, control de vehículos autónomos y funcionamiento de plantas generadoras de energía eléctrica, muchos de ellos ya son supervisados (inclusive hasta operados de manera completamente autónoma) por redes neuronales. Dado que una falla o una decisión incorrecta en estas áreas tendrían consecuencias nefastas, es muy importante contar con un sistema comprensible y transparente.

Mientras las decisiones que tome un sistema operado por IA tenga mayor incidencia en nuestras vidas, mayor es la necesidad por conocer de manera precisa el razonamiento que utilizó para llegar a tomar determinada conclusión. El problema es que, en muchos casos, el procesamiento de datos que realizan estos algoritmos se asemejan a una Caja Negra. Es justamente debido a una falta de transparencia acerca del proceso exacto que realizan internamente estos complejos sistemas lo que expertos como Steve Eglash aseguran que debe comenzar a investigarse.

Uno de estos métodos en existencia actualmente es Reluplex, un procedimiento de verificación para grandes redes neuronales que se utiliza para estudiar y mejorar su funcionamiento. Reluplex se basa en el manejo de la función de activación llamada Unidad Linear Rectificada (ReLu), un componente crucial que poseen la mayoría de las redes neuronales modernas. Ya se han realizado pruebas del funcionamiento de este proceso en la IA de drones autónomos de última generación con el objeto de verificar sus sistemas de detección y evasión de obstáculos. A pesar de que Reluplex se encuentra en una etapa inicial de desarrollo, una vez perfeccionado podrá implementarse como un componente de seguridad en todo dispositivo que sea operado por redes neuronales.

La mayor preocupación de la comunidad científica es poder entender cómo los sistemas que funcionan con algún grado de IA llegan a tomar sus resoluciones. Ya sea catalogar a un individuo mediante el reconocimiento facial, elegir determinado objetivo en un vehículo de guerra no tripulado o simplemente otorgarle un préstamo al cliente de un banco, es necesario lograr que cualquier sistema autónomo opere con total transparencia y sus decisiones no sean prejuiciosas.

Tal como lo indica el profesor Eglash, “las redes neuronales y la IA tienen el potencial de generar muchos beneficios, así como también provocar un gran daño”. Conseguir que estos avanzados y complejos sistemas que progresivamente están cumpliendo un rol cada vez más integrado en nuestras vidas diarias posean un alto nivel de transparencia es la gran responsabilidad que tienen sobre sus espaldas los expertos que los están desarrollando.


El texto anterior expresa mis ideas y opiniones inspiradas en
How AI Researchers Are Tackling Transparent AI: Interview With Steve Eglash, Stanford University. (https://www.forbes.com/)
Reluplex: An Efficient SMT Solver for Verifying Deep Neural Networks. (https://arxiv.org/)
Explainable Artificial Intelligence (XAI). (https://www.darpa.mil/)

Share on facebook
Share on twitter
Share on whatsapp
Share on email

Seguir leyendo

Close