¿La Inteligencia Artificial tiene sesgos de género y de raza?


  • Un estudio señala que las affirmaciones de que la IA en RRHH puede eludir los prejuicios por etnia o género, son “falsas y perigorosas”


  • Desde la empresa Paradigma Digital assures that any AI technique is biased by nature


  • Other experts point out that this study is based on automation and not true IA

La Inteligencia Artificial se usa cada vez más en recursos humanos y son muchos los que lo ven como una toola del futuro y otros, tienen sus dudas y ven que la IA no se está empleando de manera correcta. “Esta IA does not consist of another thing that, in a set of rules, que tantera tantos sesgos como la persona que la ha definito”affirms Raúl Sánchez, Responsable de Tecnología en Syntonize.

Algunos experts aseguran que artificial intelligence in resources humanos puede afectar a los prejuicios por etnia o género para impulsar la diversity en el lugar de trabajo. According to researchers from the University of Cambridge (United Kingdom), these tools reduce race and gender to trivial data, and they are often based on personality analysis that are “pseudoscience automated.”

“Si bien las empresas pueden no estar actuando de mala fe, hay poca responsabilidad sobre cómo se contrujen o prueban estos productos”, dicen los autores del estudio. Como tal, esta tecnología, y la forma en que se commercializada, podriana acabar siendo peligrosas fuentes de desinformación sobre cómo se puede ‘desprejuiciar’ la contratación y hacerla más justa”.

IA versus automation

El problema para el Responsable de Tecnología en Syntonize, es que hay que diferenciar muy bien entre IA y automatización. “Una IA parte de unos parameters, pero va aprendiendo de ellos y al final saca unas conclusionios. The automation consists of a set of rules that are set in a program and help to identify a candidate, for example, according to the parameters that they have given, but no evolution, no improvement, no learning”. Este es el dilema que ve el experto con el estudio de la Universidad de Cambridge, no es IA es automatización.

Sin embargo, Moisés Martínez, Responsable de datos de IA en Paradigma Digital, assures that, si las maquinas son capaces de tomar decisions en base a los patrones que detecta, es IA. “Independant de cómo lo hagan, es lo que hacemos los humanos, aunque lo hagamos de manera diferente·.

El informe de Cambridge affirma que es un peligroso ejemplo de “tecnosolucionismo”, recurrir a la tecnología para oferer soluciones rápidas a problemas de discriminación muy arraigados que requiren inversiones y cambios en la cultura de la empresa. Indeed, researchers have worked with a team of computer science students from Cambridge to discredit these new recruitment techniques by creating an AI tool based on technology, available at https://personal-ambiguator-frontend.vercel. apps/

La

La “Máquina de la Personalitydad” demonstrates how arbitrary changes can make lecturas de la personality radically differentniusdiario.es

Aquí vemos un ejemplo claro. El propio Sánchez demonstrates that the parameters change depending on the clothes you wear, the contrast that the computer has, you look more or less, “si te descartan para un puesto por haberte sentado cinco centimeter más atrás en la camera o llevar jersey en lugar de camisa, no sé si es por hacer la faena o por una herramienta poco precisa. Esto no es IA, es automatización”, he explains.

La

La “Máquina de la Personalitydad” demonstrates how arbitrary changes in facial expression can lead to radically different readings of personalityniusdiario.es

La IA is biased by nature

Desde Paradigma Digital, Martínez asevera que cualquier técnica de IA is biased by nature, porque para evitar los sesgos taniríamos que tener acceso a todos los datos que existieran sobre ese concepto, y eso es imposible. “Primero, porque el volumen de datos es enorme y segundo, porque se van generando en tiempo real según los humanos vamos evolucionando”, he says.

“El otro problema es que los humanos sesgamos de manera voluntaria o involuntaria in most cases por nuestras perspectiva, nuestras creencias, ideologías, o simplemente porque la tecnologia que usamos no es completa ni perfecta”, he added.

“Si entrenas a la IA para decir que los marcianos son buenos y nos van dominar a todos, eso es lo que va aprender la IA, igual que lo haría un humano a quien le hubieran enseñado la supremacía alienígena. Es necesario determinar correctamente el grupo de datos con el que entrenar dicha inteligencia“, says Sánchez.

Debe verse como una tool para mejorar la toma de decisions

Para el experto de Syntonize, “los micro gestures, y todos los parameters que utiliza una persona para emitir un juicio es muy difícil que los tenga en cuenta una máquina no preparada para esos parameters de entrada y mucho menos, no trainnada. Está claro que ahora mismo la IA ya se usa, pero no para elegir un candidato. If we had to prepare an AI to realize this function, first we would have to study in detail which parameters a person uses to take the decision, then give him a measure and lastly, associate a set of results to those parameters to have a sample. Con varios cientos de miles de muestras podriamos entrenar a la IA para que tome la decisión que nosotros hubiéramos tomado”.

Martínez affirms that AI, in the end, must be a tool that humans have utilizar para mejorar nuestra toma de decisiones, no es una herramienta que tenga que tomar decisions por nosotros. “En el caso de que impacte en la vida de las personas y decida si una persona es apta para un empleo o merezca una subida salarial debiere ser el humano, el que ayudado por la IA, tenga la ultima palabra”.

La ‘explicabilidad’ de la IA

“Ha surgido una corriente en los ultimos años, que es lo que llamamos la explicabilidad de la IA para que podamos explicar al usuario porque la IA ha tomado esa decision, porque a lo mejor hay un sesgo en los datos o ha detectado algo que nosotros como humanos no hemos sido capaces. The ideal is that todas esas respuestas de las IA se puedan explicar y con eso podamos tomar una decisión u otra”, assures Martínez.

Desde Paradigma Digital señalan varios ejemplos de que la major parte de la IA están sesgadas. El error que tenía el system de Amazon cuando siempre rechazaba los curriculums femeninos porque él siempre había aprendido con información masculina. Antes casi no había ingenieras, por eso las rechazaba y el sistema no las tenía en cuenta.

Oh, el problema de Microsoft en las elecciones de Trump contra Biden. Donde e-mail chatbots learned from Trump and became a tool to generate strokes against some minorities. Algo más cercano, el problema que ha tenido el coche de Tesla, donde no identificaba bien a algunos individuos por su color de piel u otros parameters porque no le habían considerado en las pruebas.

La IA is a reality

Syntonize asegura que hay profesiones que no se han inventado todavía y que van a tener mucho que ver con la IA. For example, domador de las intelligentias artificiales que será un experto en dirigirse a una AI, para que el resultado de la interacción con la IA be el realente deseado”, comments Sánchez.

A study carried out in 2020 on 500 organizations from different sectors in five countries revealed that 24% of companies have implemented IA with fines de contratación y que el 56% de los directores de contratación planean adoptarla en el próximo año.

Another survey carried out in April 2020 on 334 leaders of human resources, when the pandemic took hold, discovered that the 86% of organizations were incorporating new virtual technology a las prácticas de contratación.

“Es muy importante determinar y ser muy cuidadosos a la hora de utilizar la IA porque un error puede hacer que una persona se quede fuera en un proceso en el que no debrio. The IA can help a lot to identify profiles very quicklypero se debe utilizar solo como una tool”, concludes Martínez.

.

Leave a Comment

Your email address will not be published. Required fields are marked *