Escuche noticias australianas y globales y siga temas de actualidad. Podcasts de noticias de SBS.
Durante más de una década, la empresa social Sisterworks, con sede en Melbourne, ha ayudado a mujeres migrantes y refugiadas a incorporarse al mundo laboral.
“Cuando estás en una entrevista real, miras a la persona, la miras a los ojos”.
Los cursos de capacitación se centran en el servicio al cliente, la hospitalidad y las habilidades interpersonales, así como en la creación de redes de contactos, la redacción de currículums y las entrevistas para garantizar que las mujeres estén “listas para trabajar”.
Pero Ifrin Fittock, directora ejecutiva de Sisterworks, dice que a finales del año pasado un grupo de nueve graduados se encontró en una situación para la que ni ellos ni sus profesores estaban preparados.
“De hecho, nos sorprendimos cuando a finales del año pasado enviamos a unas nueve hermanas a una entrevista y no lo lograron, no aprobaron la entrevista. Lo que descubrimos a partir de la investigación es que en realidad no estaban siendo entrevistadas en persona, sino por video. Entrevistas con IA y como nunca antes habían estado expuestas a ella, creo que simplemente fallaron porque no saben qué hacer”.
Su experiencia no es única, ya que los solicitantes de empleo comparten cada vez más sus propias experiencias con las llamadas entrevistas “robo” en las redes sociales.
HOMBRE: “Hola”.
ROBOT: “Hola, muchas gracias por participar en la entrevista de hoy. Tengo muchas ganas de hablar contigo y aprender más sobre ti”.
En las entrevistas “robo”, un candidato no es entrevistado por un humano, sino por un sistema de inteligencia artificial.
Según Fittock, este tipo de entrevista puede crear obstáculos adicionales para los solicitantes con antecedentes de inmigrantes y refugiados.
“Los desafíos con este reclutamiento de IA o entrevistas de IA para algunas de nuestras hermanas son principalmente que el inglés no es su primer idioma, pero también el nivel de alfabetización digital que pueden tener o no, ya que en realidad tienen que navegar a través de las cosas. Además de responder preguntas, también tienen que presionar un botón y prestar atención al cronómetro y toda esa presión que sigue aumentando, especialmente cuando ves el tictac del reloj frente a ti. Así que todo es realmente bastante desafiante”.
En 2024, el 43 por ciento de las empresas utilizará la IA “moderadamente” en la contratación, mientras que el 19 por ciento utilizará la tecnología “en gran medida” para contratar nuevos empleados.
Esto es según el informe The Australian Responsible AI, que detalla cómo las empresas australianas están llevando a cabo sus prácticas de IA.
A medida que los empleadores dependen cada vez más de la IA, la capacitación en entrevistas por video ahora forma parte del curso profesional de Sisterworks.
Fatemeh Hazrati, originaria de Irán, es actualmente una de las participantes del programa.
“La IA está teniendo un impacto realmente grande en nuestras vidas en estos días. Todos necesitamos aprenderla, (y) (nosotros) sólo necesitamos adaptarnos a cosas nuevas y asumir desafíos para aprender cosas nuevas”.
La IA en el reclutamiento a menudo se promociona por su capacidad para ahorrar tiempo y dinero.
Sin embargo, existe una preocupación creciente sobre el potencial de discriminación.
La doctora Natalie Sheard es de la Facultad de Derecho de Melbourne, Universidad de Melbourne.
Dirigió un estudio publicado a principios de este mes ((14 de mayo)) que sugiere que los sistemas de contratación de IA están creando nuevas barreras al empleo.
“Por lo tanto, podrían ser solicitantes mayores, mujeres, personas que hablan inglés como segundo idioma o solicitantes de empleo con discapacidades. En mi investigación, he oído hablar de sistemas que no son accesibles para quienes buscan empleo con discapacidades. He oído hablar de sistemas de selección de currículums que utilizan cosas como lagunas en el historial laboral para descartar candidatos, y las brechas en el historial laboral son un indicador conocido de género, ya que las mujeres tienden a tener tiempo fuera del trabajo para cuidar de la familia”.
También explica cómo las personas que tienen el inglés como segundo idioma pueden verse en desventaja en las entrevistas en video.
“Otra preocupación es que estos sistemas normalmente funcionan de tal manera que la IA no califica el video. Lo que sucede es que el audio de su video se transcribe y luego se usa la IA para evaluar su respuesta, y es bien sabido que estos servicios de transcripción funcionan mal para las personas que hablan inglés como segundo idioma o tienen acentos”.
El profesor Andreas Leibbrandt de la Universidad de Monash también ha investigado el papel de la IA en el reclutamiento.
Dice que la tecnología tiene ventajas y, si se usa correctamente, un sistema puede estar menos sesgado que un ser humano.
En un estudio realizado en EE. UU., descubrió que las mujeres y los candidatos que no hablaban inglés tenían más probabilidades de postularse para puestos de trabajo si sabían que se estaban utilizando herramientas de inteligencia artificial.
“No es que tanto las mujeres como las minorías étnicas sientan que no hay sesgo en el algoritmo de IA, pero sienten que ese sesgo es menor que si estuvieran tratando con un reclutador humano”.
Sin embargo, le preocupa la falta de transparencia, regulación y posibles sesgos incorporados en los algoritmos.
“Estos algoritmos de IA se alimentan de conjuntos de datos de entrenamiento o de empresas. Pero sus propios datos de entrenamiento pueden estar sesgados. Podrían provenir de una organización donde había prejuicios contra las mujeres, por ejemplo”.
La cuestión relativa a los conjuntos de datos y los algoritmos también surgió en la investigación del doctor Sheard.
“Por ejemplo, muchos de estos sistemas se construyen en el extranjero, por lo que es posible que hayan sido entrenados con datos de poblaciones que no son comparables a la población australiana. Y así, nuevamente, el sistema no funcionará tan bien para ciertos grupos demográficos que tenemos en Australia. Por ejemplo, refugiados, inmigrantes, Primeras Naciones, australianos”.
Los llamados al gobierno australiano para que regule mejor el uso de la IA en el reclutamiento son cada vez más fuertes.
Catherine Hunter es directora ejecutiva del Diversity Council Australia, la principal organización independiente sin fines de lucro que promueve la diversidad y la inclusión en el lugar de trabajo.
“Dadas las altas tasas de adopción y la rápida aceleración de la tecnología, simplemente nos preocupa que la gente no esté tomando las consideraciones correctas sobre el uso ético”.
Los expertos dicen que la responsabilidad también recae en los empleadores: deben ser transparentes con los candidatos y asegurarse de que sus algoritmos no discriminen.