Written by ciencia y tecnologia

¿Estamos enseñando de manera errónea a la inteligencia artificial?

La teoría y la práctica suelen distanciarse mucho, y los modelos de machine learning o aprendizaje automático no son una excepción. La forma en la que estamos enseñando a la IA puede estar provocando que funcionen casi a la perfección en los laboratorios pero que, al aplicarse en el mundo real, tenga sus deficiencias.

Diferencias entre el aprendizaje automático y la inteligencia artificial

El aprendizaje automático (machine learning) y la inteligencia artificial son conceptos estrechamente relacionados, pero no son exactamente lo mismo.

La IA es una máquina inteligente, que funciona imitando la capacidad cognitiva de un ser humano, y aprendiendo por sí misma para la consecución de un objetivo. Un robot o un ser autómata creado artificialmente por personas es algo que la humanidad ha imaginado desde los albores de la historia. El escritor de ciencia ficción Isaac Asimov ha sido uno de los referentes literarios en la robótica y en la creación de sus famosas 3 Leyes de la Robótica, que aún pueden aplicarse en la sociedad actual.

La inteligencia artificial es un concepto muy amplio y contiene muchas disciplinas en su interior, una de ellas siendo el aprendizaje automático. Como el propio nombre indica, esta disciplina se basa en que las máquinas o la IA aprendan de manera automática, recibiendo un conjunto de datos y ajustando los algoritmos a medida que la información es procesada y se adaptan al entorno. Es decir, el aprendizaje automático no estaría programado per se.

El concepto de machine learning no es tan lejano como podemos pensar a veces. En nuestra misma bandeja de entrada del correo electrónico, el filtrado automático de los correos en diferentes pestañas o con diferentes parámetros que no hayamos establecido es un caso diario y real de aprendizaje automático supervisado, porque se basa en una información previa.

Otro caso diferente sería un aprendizaje no supervisado del machine learning, donde los datos que analice la máquina no se encuentren etiquetados. La IA debería encontrar relaciones por sí misma basándose en diferencias, parecidos y variables para crear diferentes reglas o categorías.

La inversión en IA y aprendizaje automático crecerá hasta los 57.600 millones de dólares en 2021, mientras que en el año 2017 era de 12.000 millones. Nada más que decir para comprender la importancia de ello en nuestro futuro más próximo.

Retos de laboratorio versus mundo real

Uno de los mayores retos es la información que recibe la inteligencia artificial a la hora de aprender en un laboratorio. La IA recibe una información para su entrenamiento que más adelante resulta muy diferente a la información que efectivamente recibe en el mundo real.

Las consecuencias de este hecho se observan muy bien en el campo de la medicina. Cada año que pasa, las imágenes son almacenadas más frecuentemente en dispositivos digitales o en la nube, y los parámetros de la IA las pueden analizan para encontrar indicios de cualquier enfermedad o desajuste. En el entrenamiento, la IA recibe información o imágenes de alta calidad, y en la realidad, estas imágenes pueden ser de baja calidad o algo borrosas dependiendo de la clínica, la cámara, el momento o la persona que las toma. Y aquí es donde surge el problema.

El aprendizaje automático también presenta otros retos como la subespecificación. Investigadores de diferentes equipos de Google han identificado a la subespecificación como uno de los mayores problemas a los que se enfrenta el machine learning, que consiste en que los efectos observados pueden tener muchas causas posibles.

Alex D’Amour lideró el estudio y confirmó la subespecificación como la causa principal del fallo en los modelos de aprendizaje de la IA, y esto afectó tanto al reconocimiento de imágenes como a la predicción de enfermedades. Si pasamos esto por alto, las consecuencias pueden ser graves.

¿Cómo entrenamos a las máquinas?

La inteligencia artificial se entrena poniéndola a prueba con una gran cantidad de ejemplos y casos a resolver, y después se avanza a un segundo paso donde se le ofrece nuevos ejemplos que aún no ha visto. Si el resultado de estos nuevos casos desconocidos para la IA es satisfactorio, podría decirse que el aprendizaje automático ha tenido éxito.

Las limitaciones de este proceso, según los investigadores del estudio de Google, es que los modelos ofrecidos en el proceso de entrenamiento van a variar en la realidad, de manera arbitraria, y el método en el que se escoge, selecciona y representa la información en su entrenamiento también tiene una gran relevancia.

Una pequeña diferencia arbitraria puede suponer un mundo a la hora de trasladar el rendimiento de la IA al mundo real. Cualquier variable que no se haya predicho puede resultar en unos efectos inesperados. Y parece que este es uno de los mayores problemas que tiene el machine learning a día de hoy, porque no se puede asegurar al completo que los modelos de entrenamiento vayan a funcionar en todos los casos del mundo real.

Nuevos modelos

Mejorar el machine learning podría suponer crear un nuevo paso adicional, donde se crearan muchos modelos a la vez en vez de solo uno. Estos modelos serían puestos a prueba en casos específicos del mundo real para identificar cuál sería el más apto.

Pasar de uno a varios modelos de aprendizaje de IA es una tarea inmensa, pero para las grandes big tech como Google podría compensar con crecces en el futuro. Como dice D’Amour, «necesitamos mejorar en especificar exactamente cuáles son nuestros requisitos en nuestros modelos, porque lo que suele acabar ocurriendo es que descubrimos estos requisitos solo cuando el modelo ha fracasado en el mundo real».

Por lo tanto, aquí estaríamos hablando de identificar que los requisitos del aprendizaje de la IA, ya de base, necesitan una mejora para no esperar a su corrección una vez dan muestras de fallo en el mundo real. Y, como hemos puesto de ejemplo en el mundo de la medicina, una IA defectuosa en campos tan importantes como la salud deben ser evitados a toda costa.


Fuentes
Heaven, W. D. (18 de noviembre de 2020). The way we train AI is fundamentally flawed. MIT Technology Review. Obtenido de https://www.technologyreview.com/2020/11/18/1012234/training-machine-learning-broken-real-world-heath-nlp-computer-vision
ExperiencIA Oracle. Obtenido de https://medium.com/@experiencIA18/diferencias-entre-la-inteligencia-artificial-y-el-machine-learning-f0448c503cd4

Share on facebook
Share on twitter
Share on whatsapp
Share on email

Seguir leyendo

Close