Actualmente, la inteligencia artificial (IA) toca casi todos los aspectos de nuestra vida. Nos sugiere d√≥nde podr√≠amos tener nuestra pr√≥xima cena, las pel√≠culas que podr√≠amos estar interesados ‚Äč‚Äčen ver este fin de semana, dar un paseo cuando nos volvemos demasiado sedentarios o a qu√© hora salir de casa para llegar a trabajar a tiempo.

Una vez en la oficina, la IA ayuda al departamento de selección a encontrar, evaluar y entrevistar candidatos. De hecho, está empoderando a los trabajadores a un ritmo tan sin precedentes que a veces eclipsa el riesgo potencial que puede representar en el lugar de trabajo.

Y es que las consideraciones éticas en el desarrollo y despliegue de esta herramienta no son universales y, mucho menos, se definen universalmente. Para los empleadores que conocen el tema, el despliegue de robots y la automatización en el lugar de trabajo conlleva el riesgo de generar resultados adversos.

Una de las preocupaciones más comunes de su uso en el procesos de reclutamiento es el potencial sesgo incrustado en las tecnologías que se utilizan para evaluar, entrevistar y contratar trabajadores. De hecho, la ansiedad en torno a la implementación justa de IA ha llevado a docenas de miembros de la OCDE a adoptar estándares internacionales para garantizar que los sistemas sean seguros, confiables y robustos.

La inteligencia artificial está transformando la sociedad, como dijo el Secretario General de la OCDE, Angel Gurría, pero "plantea nuevos desafíos y también está alimentando ansiedades y preocupaciones éticas". Como parte de un esfuerzo global para calmar los temores y las preocupaciones, la OCDE ha esbozado los pasos para que los gobiernos de todo el mundo estimulen un enfoque más integral para desarrollar sistemas transparentes.

Si bien este es un esfuerzo continuo, un n√ļmero creciente de empresas, ir√≥nicamente, est√° recurriendo a la inteligencia artificial para minimizar el sesgo en su proceso de reclutamiento. La mayor√≠a de las compa√Ī√≠as sabe que √©ste puede colarse en pr√°cticamente todas las etapas del proceso, debido a que hay muchas formas de incurrir en una inclinaci√≥n inconsciente y manifiesta. 

Si bien la inteligencia artificial puede ayudar a las organizaciones a minimizar esta desviaci√≥n, los algoritmos utilizados para hacerlo tambi√©n pueden tener prejuicios inherentes. Meredith Whittaker, cofundadora del AI Now Institute, enfatiza que ‚Äúla IA no es imparcial ni neutral. En el caso de los sistemas destinados a automatizar la b√ļsqueda y contrataci√≥n de candidatos, debemos preguntarnos: ¬ŅQu√© suposiciones sobre valor, capacidad y potencial reflejan y reproducen estos sistemas? ¬ŅQui√©n estaba en la mesa cuando se codificaron estas definiciones?

Una de las consideraciones más importantes es garantizar que los datos utilizados por los sistemas de inteligencia artificial estén bien administrados, ya que de lo contrario se pueden crear algoritmos sesgados. Es fundamental que las empresas sean inclusivas en su recopilación de datos, empleando un equipo diverso para tomar decisiones en torno a la información y determinar qué métricas se utilizarán en la construcción de la IA. Estos son solo algunos de los pasos para construir un sistema más ético y justo.

Pero, con muchos desarrolladores de soluciones de recursos humanos que ahora ofrecen herramientas para tratar de minimizar este riego, ¬Ņc√≥mo puede una organizaci√≥n asegurarse de que el sistema que elija abordar√° espec√≠ficamente los prejuicios contra un grupo espec√≠fico, como el desequilibrio de g√©nero dentro de la fuerza laboral? 

Si una empresa se da cuenta de que el resultado de sus sistemas de reclutamiento de IA está resultando, por ejemplo, en menos contrataciones de mujeres, se pueden reconstruir algoritmos para tener en cuenta esta problemática. Una definición importante es determinar si hacer algoritmos de código abierto para que el proceso de desarrollo sea transparente.

Medir y mitigar el sesgo es un aspecto importante de la ética en inteligencia artificial, ya que es una piedra angular para el uso responsable de la tecnología con fines de reclutamiento. Sin embargo, también es fundamental tener en cuenta temas como el riesgo del uso de datos y las preocupaciones respecto a la privacidad. Las firmas pueden explorar el desarrollo de sus propios principios y crear un comité de ética para garantizar que éstos se cumplan de manera consistente.

Los conceptos subyacentes de estos principios no son nuevos, pero a medida que más empresas implementan sistemas de inteligencia artificial para optimizar su proceso de contratación, los líderes de capital humano siempre deben tener en cuenta la pendiente resbaladiza que pueden enfrentar al adoptar tales tecnologías en el lugar de trabajo. Así, el despliegue de la inteligencia artificial no debe hacerse con fe ciega. Siempre debe haber una estrategia y un plan de acción para garantizar un uso práctico y ético de las tecnologías que se utilizan hoy y en el futuro.

Y ahora ¬Ņsabes qu√© consideraciones √©ticas debes tener para implementar la IA en tu proceso de reclutamiento?

¬Ņquieres solicitar un estudio a la medida de tu empresa?