
Una nueva ética para la IA en recursos humanos
La inteligencia artificial está cambiando nuestras vidas, tanto en lo personal como en lo profesional. No solo estamos inmersos en un proceso de reestructuración tecnológica en la experiencia de compra o en los algoritmos publicitarios en la web y redes sociales; en la empresa y en la contratación, este cambio está creando un nuevo paradigma para la búsqueda de talento de manera eficiente.
Es aquí cuando entra en consideración la ética de la IA en recursos humanos. Muchos demandantes de empleo no saben a lo que se enfrentan hoy en día en un proceso de selección ni cómo muchas de sus competencias, fortalezas y debilidades están siendo analizadas por programas automatizados. A su vez, algunas empresas desconocen el potencial de la contratación mediante algoritmos de IA. Es preciso arrojar un poco de luz sobre todo ello.
El proceso de selección mediante la inteligencia artificial
Existe mucha confusión sobre las capacidades de la inteligencia artificial, aquello que puede y no puede hacer. En el área de recursos humanos, la IA juega un papel fundamental:
Predice el rendimiento y el comportamiento de un candidato.
- Identifica patrones que son difícilmente detectables por el ojo humano.
- Utiliza modelos de personas reales para identificar si el candidato sería un empleado idóneo para ese puesto.
- Agiliza los procesos de selección al analizar la información de forma más rápida.
Teóricamente, la IA es capaz de reclutar el mejor candidato para el puesto vacante; en la práctica, existen muchas dudas sobre este tipo de tecnología. Para algunos, podría estar exacerbando el sesgo y dando por hecho muchos de los prejuicios que tenemos como humanos. Si las variables están basadas en nuestro conocimiento empírico y origen cultural, ¿está también la IA haciendo uso de una información parcial y poco neutral?
El sesgo de la IA en la contratación
Siempre hay un riesgo al utilizar la inteligencia artificial para un proceso de selección. Si esta tecnología aprende sobre los datos que los humanos le brindan, es probable que se esté perpetuando una falta de diversidad en los entornos corporativos, sobre todo aquellos globalizados. Un ejemplo es un estudio del Chartered Insurance Institute (CII), que mostró la existencia de un sesgo importante en los conjuntos de datos que se utilizan para entrenar a los algoritmos de la IA. Parece contradictorio que la IA esté sesgando y adoptando las imparcialidades propias de los seres humanos cuando es precisamente lo que se evita con su uso. Por ello, se deben tener en cuenta los siguientes puntos cuando hablamos de la inteligencia artificial en un proceso de selección.
La fase de entrevistas puede estar sesgada de antemano. Debido a la forma en la que la vacante está articulada, el sesgo ya puede estar presente en la fase de entrevistas. Esto es debido a que el uso de palabas clave en una contratación define con gran precisión quién va a postular por ese puesto, y tienen connotaciones subconscientes muy fuertes. Esto es algo que no solo afecta a los humanos, sino que predispone a la IA a la parcialidad.
La IA no garantiza la objetividad. Este es un punto que puede generar un extenso debate en la sociedad, ya que muchos consideran que la utilización de la inteligencia artificial es sinónimo de objetividad, cuando todo depende de cómo estemos enseñando a hacer sus propios análisis. No hay una respuesta única que sea correcta ni imparcial.
Una falta de diversidad en diferentes sectores crea un sesgo en la IA. Es tan sencillo como pensar que la inteligencia artificial aprende de patrones y datos históricos. Si hay una desigualdad imperante en cualquier sector o industria, la IA se verá influenciada por ello.
Por lo tanto, dado los desafíos a los que se enfrentan los técnicos de selección y los expertos en recursos humanos, es fundamental poner el foco en la creación de unos estándares éticos en la contratación de nuevo personal. La inteligencia artificial puede ahorrar tiempo y dinero, y añadir un altísimo valor a cualquier empresa, pero también es necesario que se realice una suficiente investigación con el objetivo de reducir los sesgos que puedan surgir en el proceso. Ya no solo basta con la implantación de la IA en todos los ámbitos de nuestra sociedad, sino que la creación de un marco ético debe ser una prioridad.
La prioridad de un marco ético para la IA
Si no se usa de forma correcta, la inteligencia artificial puede exacerbar el sesgo y la respuesta emocional de los seres humanos en cualquier proceso de contratación. Para evitar esto, y mientras se perfecciona la IA en recursos humanos, el primer paso sería hacer saber a los participantes del proceso de selección que pueden ofrecer datos adicionales con el único objetivo de ayudar a tomar decisiones a los algoritmos. En caso contrario, podríamos estar ante un modelo de caja negra (black-box model), donde las razones y el origen de las conclusiones de la IA no estarían muy claras.
El almacenamiento de datos sensibles podría desencadenar en una nueva área de la empresa para la protección y regulación de los datos y, a su vez, poner en marcha un proceso de contratación de expertos en la materia.
Para ayudar al sector, sería apropiado contar con auditorías externas de los sistemas de código abierto u open source que utilizan IA. Expertos en esta área podrían analizar la forma en la que cientos de empresas están contratando hoy en día y proponer soluciones al sesgo que estas crean. Si esto no sale a la luz, podría crear una opinión pública algo desfavorable a los nuevos sistemas de contratación, ya que el candidato seguiría sin conocer cuáles han sido los parámetros por los que su perfil profesional ha sido analizado.
En definitiva, las empresas y los expertos en recursos humanos deben invertir no solo en la aplicación de más IA, sino en la investigación requerida para evitar trasladar la desigualdad y discriminación humanas a sus algoritmos, junto con nuevas políticas para la protección de datos de los aplicantes. Es posible que la inteligencia artificial destruya numerosos empleos en el futuro, pero como estamos viendo, está creando otros indirectamente y cambiando lo que tradicionalmente se consideraba como algo exclusivamente realizable por humanos: decir a una persona desempleada que consiguió un nuevo empleo. ¿Sería ético que una máquina lo dijera a partir de ahora?