blog_image_E416CB03-2720-4A9C-8E17-0E9E1DEF68D5.jpeg
blog_image_E416CB03-2720-4A9C-8E17-0E9E1DEF68D5.jpeg

Actualmente, la inteligencia artificial (IA) toca casi todos los aspectos de nuestra vida. Nos sugiere dónde podríamos tener nuestra próxima cena, las películas que podríamos estar interesados ​​en ver este fin de semana, dar un paseo cuando nos volvemos demasiado sedentarios o a qué hora salir de casa para llegar a trabajar a tiempo.



Una vez en la oficina, la IA ayuda al departamento de selección a encontrar, evaluar y entrevistar candidatos. De hecho, está empoderando a los trabajadores a un ritmo tan sin precedentes que a veces eclipsa el riesgo potencial que puede representar en el lugar de trabajo.



Y es que las consideraciones éticas en el desarrollo y despliegue de esta herramienta no son universales y, mucho menos, se definen universalmente. Para los empleadores que conocen el tema, el despliegue de robots y la automatización en el lugar de trabajo conlleva el riesgo de generar resultados adversos.



Una de las preocupaciones más comunes de su uso en el procesos de reclutamiento es el potencial sesgo incrustado en las tecnologías que se utilizan para evaluar, entrevistar y contratar trabajadores. De hecho, la ansiedad en torno a la implementación justa de IA ha llevado a docenas de miembros de la OCDE a adoptar estándares internacionales para garantizar que los sistemas sean seguros, confiables y robustos.



La inteligencia artificial está transformando la sociedad, como dijo el Secretario General de la OCDE, Angel Gurría, pero "plantea nuevos desafíos y también está alimentando ansiedades y preocupaciones éticas". Como parte de un esfuerzo global para calmar los temores y las preocupaciones, la OCDE ha esbozado los pasos para que los gobiernos de todo el mundo estimulen un enfoque más integral para desarrollar sistemas transparentes.



Si bien este es un esfuerzo continuo, un número creciente de empresas, irónicamente, está recurriendo a la inteligencia artificial para minimizar el sesgo en su proceso de reclutamiento. La mayoría de las compañías sabe que éste puede colarse en prácticamente todas las etapas del proceso, debido a que hay muchas formas de incurrir en una inclinación inconsciente y manifiesta. 



Si bien la inteligencia artificial puede ayudar a las organizaciones a minimizar esta desviación, los algoritmos utilizados para hacerlo también pueden tener prejuicios inherentes. Meredith Whittaker, cofundadora del AI Now Institute, enfatiza que “la IA no es imparcial ni neutral. En el caso de los sistemas destinados a automatizar la búsqueda y contratación de candidatos, debemos preguntarnos: ¿Qué suposiciones sobre valor, capacidad y potencial reflejan y reproducen estos sistemas? ¿Quién estaba en la mesa cuando se codificaron estas definiciones?



Una de las consideraciones más importantes es garantizar que los datos utilizados por los sistemas de inteligencia artificial estén bien administrados, ya que de lo contrario se pueden crear algoritmos sesgados. Es fundamental que las empresas sean inclusivas en su recopilación de datos, empleando un equipo diverso para tomar decisiones en torno a la información y determinar qué métricas se utilizarán en la construcción de la IA. Estos son solo algunos de los pasos para construir un sistema más ético y justo.



Pero, con muchos desarrolladores de soluciones de recursos humanos que ahora ofrecen herramientas para tratar de minimizar este riego, ¿cómo puede una organización asegurarse de que el sistema que elija abordará específicamente los prejuicios contra un grupo específico, como el desequilibrio de género dentro de la fuerza laboral? 



Si una empresa se da cuenta de que el resultado de sus sistemas de reclutamiento de IA está resultando, por ejemplo, en menos contrataciones de mujeres, se pueden reconstruir algoritmos para tener en cuenta esta problemática. Una definición importante es determinar si hacer algoritmos de código abierto para que el proceso de desarrollo sea transparente.



Medir y mitigar el sesgo es un aspecto importante de la ética en inteligencia artificial, ya que es una piedra angular para el uso responsable de la tecnología con fines de reclutamiento. Sin embargo, también es fundamental tener en cuenta temas como el riesgo del uso de datos y las preocupaciones respecto a la privacidad. Las firmas pueden explorar el desarrollo de sus propios principios y crear un comité de ética para garantizar que éstos se cumplan de manera consistente.



Los conceptos subyacentes de estos principios no son nuevos, pero a medida que más empresas implementan sistemas de inteligencia artificial para optimizar su proceso de contratación, los líderes de capital humano siempre deben tener en cuenta la pendiente resbaladiza que pueden enfrentar al adoptar tales tecnologías en el lugar de trabajo. Así, el despliegue de la inteligencia artificial no debe hacerse con fe ciega. Siempre debe haber una estrategia y un plan de acción para garantizar un uso práctico y ético de las tecnologías que se utilizan hoy y en el futuro.



Y ahora ¿sabes qué consideraciones éticas debes tener para implementar la IA en tu proceso de reclutamiento?

¿quieres solicitar un estudio a la medida de tu empresa?