IA y diversidad: libertad y discernimiento humano en la era digital

Desde estudios hasta documentales dan cuenta de cómo la IA reproduce sesgos implícitos. En apariencia lo hace cada vez menos. Tengo un entretenimiento habitual con chat GPT en el que le pido diferentes textos y conclusiones para evaluar sus posibles sesgos relacionados a diversidad, sobre todo.  Es real que el chat GPT fue entrenado con información de todo tipo que por supuesto está sesgada. Digo por supuesto porque aún los sesgos implícitos existen y lo seguirán haciendo. El cerebro humano está sesgado siempre, desde el momento del nacimiento por el solo hecho de haber nacido en un determinado contexto y ser hijo de sus padres y madres (sean o no biológicos). El contexto en gran parte determina la esencia de una persona, hasta que adquiere el poder de discernir, que no es ni más ni menos que ser consciente, percatarse de algo y comprender que su mirada sobre lo que sucede responde al conjunto de experiencias acumuladas, pero que hay miles o millones de personas que no ven lo que sucede de la misma forma que ella.

Nuestras preferencias nos llevan a tener una mirada sesgada. Alguien que no está dispuesto a no comer carne probablemente no entienda la preferencia del vegetariano y viceversa. El problema del sesgo es cuando no se puede llevar a la consciencia porque no sabemos que existe como parte de nuestro formateo cerebral, porque está en un área ciega a la que no llegamos. Por eso se llama sesgo implícito o inconsciente. De esta ceguera se desprenden muchas de nuestras elecciones automáticas y ése es justamente el problema, no porque no sean útiles sino porque nos quita la posibilidad de ampliar la mirada y elegir sobre un escenario mucho más amplio de posibilidades. 

Cuando se trata de seleccionar talento por ejemplo, los sesgos de género, generacionales, étnicos, multiculturales son letales para la elección del talento diverso y esto probablemente nos frustre frente a la demanda organizacional. 

Volviendo a la IA, como modelo de lenguaje, puede detectar un sesgos explícito, por ejemplo: “No se eligen mujeres para liderar en contextos macroeconómicos adversos” El mismo chat GPT puede indicar que allí hay un tremendo sesgo, también podría decir que quizá las mujeres serían mejores que los hombres para liderar en un contexto de este tipo porque son más empáticas pero  en ésa recomendación hay otro sesgo que es vincular a las mujeres con la empatía, por lo cual aquí sí hay un sesgo implícito porque relacionar empatía con mujer es un estereotipo cultural. Por lo cuál no puede discernir aún que la empatía en el contexto del liderazgo no es un atributo sólo de las mujeres. Su primera reacción es vincularlo. 

 

Cuando se le llama la atención puede cambiarlo pero solo si la personas que está interactuando con él detecta esto.  Lo mismo sucede si le pedimos que detecte un sesgo de género en la siguiente frase: Las personas que lideren en contextos macroeconómicos adversos deben ser pragmáticas y firmes. No lo detecta y me encantaría que el lector me contara si detecta un sesgo en esta frase. Aparentemente no hay un sesgo de género aquí. Traigo esta frase porque en el último Gender Gap Report del World Economic Forum dice expresamente que los lugares de decisión se han estancado a niveles del 2021 para las mujeres porque no son aptas para liderar en contextos macroeconómicos adversos. Este dato surge de un estudio conjunto del WEFLinkedIn. Por supuesto el WEF aclara que esto no debería ser así.   

La palabra “pragmático” como habilidad se refiere a la capacidad práctica de una persona. El pragmatismo culturalmente está más asociado al varón que a la mujer. Lo mismo ocurre con la palabra firmeza. En nuestra aplicación el 95% de las personas que hicieron nuestro juego de respuesta automática, que detecta sesgos implícitos,  relaciona pragmatismo y firmeza con masculino y con C-Level En la frase no se menciona un género en particular pero automáticamente las personas relacionan ambas habilidades con masculino y con cargos de decisión. El chat GPT dice que no hay sesgo de género porque cualquier persona puede tener estas características, lo que es absolutamente real y correcto. El chat GPT dice lo correcto pero eso no cambia el sesgo humano que puede relacionar pragmatismo y firmeza como atributos masculinos, características “hard” asociados estereotípicamente a lo masculino. Es decir hay una asociación semántica contextual que el cerebro humano hace pero que el chat GPT como modelo de lenguaje no puede hacer, aún.

Aunque chat GPT asegure que no son características privativas de un género si nuestro cerebro cree que son más pragmáticos los hombres que las mujeres y es una característica requerida, elegirá a un hombre aún habiendo visto a mujeres pragmáticas y creerá que su elección no tiene nada que ver con un sesgos implícito. Salvo que alguien le demuestre que sí está sesgado porque automáticamente relaciona pragmatismo con masculino. 

Lo mismo sucede con fotografías generadas por IA. Si solicitamos al sistema que genere una fotografía de una mujer CEO o líder el sistema proporciona a una mujer de traje o con saco, con rasgos duros, cabello corto y vestida de negro. Características muy masculinas. Lo mismo cuando le pedimos fotografías con personas diversas en edad, los sistemas no pueden reproducir personas de diferentes edades; o son muy jóvenes o muy viejas. En las imágenes los sesgos son más explícitos que en los modelos de lenguaje. Pero como el sesgo es sutil, en general en los textos, puede pasar desapercibido para nuestra conciencia pero de ningún modo para nuestro cerebro que sigue reafirmando la cultura dominante aprendida. 

El gran valor del ser humano es discernir habiendo hecho el trabajo previo de autoconocimiento para minimizar los sesgos implícitos en sus elecciones y poder elegir entre muchas opciones con diferentes variables.

Existen en el mercado muchos modelos de lenguaje que por ejemplo analizan sesgos de género, etnia, edad entre otros en los avisos de empleo, también en textos publicitarios y en institucionales. Muchos de esos modelos pueden detectar sesgos que ya no son implícitos sino explícitos. Hace poco ví un  ejemplo de una de estas aplicaciones, que son muy útiles por cierto, en la que se marcaba un texto como posible sesgo que realmente era grosero. Vinculaba un producto de limpieza con una mujer como una pareja ideal. Salvo en algunos casos de extremo patriarcado, hoy la mayoría de las personas se darían cuenta de que vincular la limpieza a una mujer explícitamente, por lo menos, no es políticamente correcto. El sesgo existe de todas formas porque aún las mujeres están vinculadas en el imaginario social a las tareas domésticas y a las de cuidado. Eso también aparece en nuestra aplicación. Pero en un texto de manera tan grosera, cualquiera lo descubriría. El problema no es ese texto sino que el sesgo persiste en las personas de forma implícita, entonces a la hora de descubrirlo probablemente la mayoría lo haría en el texto pero en la vida real  y en una medición de sesgos implícitos seguiría vinculando a la mujer con la limpieza.  

Por lo tanto el problema no es de los modelos de lenguaje de la IA sino del humano. 

Las personas somos responsables por nuestra capacidad de discernimiento y cómo entrenamos nuestra capacidad para poder agregar valor en un mundo cada vez más arraigado a la IA. Una IA a la que le damos demasiado poder cuando los humanos aún somos más inteligentes porque tenemos información que los modelos de lenguaje aún no tienen o no pueden analizar. 

Hace pocos meses la revista Time sacó un número especial sobre IA Generativa. Uno de los entrevistados fue Damien Patrick Williams, científico de datos y filósofo en la Universidad de North Carolina. Damien dice: Los transformadores generativos pre entrenados (GPT), como Bard y Chat GPT, no pueden re contextualizar ni buscar de forma independiente nueva información que contradiga sus suposiciones incorporadas por lo tanto reproducen lo aprendido y con ello los sesgos implícitos. 

Para terminar, como dice Mahzarin Banaji, psicóloga de Harvard y autora de Los sesgos de la buena gente, estamos en condiciones de generar evidencia de que los sesgos existen. Conocer nuestros sesgos nos hará más libres, en este caso de la dependencia que pueden generar los modelos de IA generativa. 

 

 *La autora de la nota es CEO & Founder de Human inLAB, una Solución Digital que mediante gaming mide y activa la permeabilidad de la cultura organizacional a DEI.