"Los seres humanos sueñan robot, incluso los perros sueñan, pero tú no. Solo eres una máquina, una imitación de la vida", le dice el detective Del Spooner (Will Smith) a un robot humanoide en la película Yo Robot cuando este le asegura que puede soñar. "¿Puedes componer una sinfonía? ¿puedes convertir un lienzo en una hermosa obra maestra?" -le inquiere- A lo que el robot responde "¿Acaso puedes tú?".
Veinte años después de su estreno y ante el avance exponencial de la inteligencia artificial, esta escena de película nos confronta con dos preguntas fundamentales: ¿Podrá la IA superar el desempeño humano en áreas consideradas de exclusivo dominio de nuestra especie? Y, si lo logra ¿qué impacto tendrá en las futuras generaciones de trabajadores?
Un dominio ya desafiado por la IA es la producción y organización de ideas. Desde la aparición de herramientas como ChatGPT, capaces de generar texto lógico y estructurado en segundos, enfrentamos un nuevo reto: identificar qué y cuánto de lo que leemos ha sido escrito por seres humanos y cuánta de la información que consumimos es correcta.
Para poner a prueba nuestra capacidad de hacer esa distinción, investigadores de la Universidad de Castilla-La Mancha (España) llevaron a cabo un estudio en el que a estudiantes universitarios se les pidió identificar en una serie de textos cuáles habían sido generados por IA y cuáles por personas. Los resultados fueron más que interesantes, los participantes acertaron apenas en el 50% de los casos, que es lo que se esperaría si estuvieran adivinando al azar.
Este hallazgo, presentado en el estudio ¿Puede engañarnos una IA? Carencias del estudiantado universitario para detectar ChatGPT, pone en evidencia nuestra vulnerabilidad ante la desinformación. En un contexto como el de Argentina donde muchos estudiantes de primaria y secundaria tienen dificultades de comprensión lectora -básica para desarrollar la capacidad de discernir - la próxima generación de trabajadores podría tener serias dificultades para obtener resultados de calidad al utilizar esta tecnología y para elegir qué de toda la información disponible es útil en el marco del trabajo.
¿Comprende ChatGPT lo que le pedimos?
Un dilema que se presenta con el uso de estas tecnologías es si debemos confiar a ciegas en la información que nos entrega o debemos hacer un esfuerzo extra para corroborarla especialmente porque vivimos en un mundo en el que la gente percibe que le falta tiempo y donde la hiperproductividad es valorada.
Según un estudio de la Universidad de Washington y el Instituto Allen para la Inteligencia Artificial titulado, "La paradoja de la IA Generativa: Lo que puede crear puede que no lo entienda", las capacidades generativas de modelos como ChatGPT no implican verdadera comprensión.
Mientras los humanos suelen mantener una alta precisión en tareas complejas, los modelos de IA aún cometen errores significativos en actividades que requieren interpretación profunda, como resumir documentos extensos. Esto se debe a diferencias fundamentales en cómo las personas y las máquinas aprenden. Para los humanos, comprender precede a crear para las máquinas no. Por eso resulta fundamental invertir recursos tanto públicos como privados para que los jóvenes que formarán la próxima generación de trabajadores, puedan desarrollar su capacidad para pensar y con ella el criterio para distinguir cuándo la información que reciben de este tipo de modelos es correcta (basada en información real y comprobable) y útil (oportuna para la realización del trabajo).
El desafío de las empresas en educación
Las empresas ya enfrentan el reto de desarrollar habilidades blandas en sus equipos debido a que muchas de ellas no se aprenden en la escuela. A futuro, las dificultades de comprensión lectora y un reducido pensamiento crítico podrían amplificar la brecha de adquisición de esas habilidades. Los proyectos educativos orientados a enseñar a la gente a pensar, resultan vitales para que Argentina no solo se convierta en el cuarto polo de Inteligencia Artificial del mundo, sino que cuente con el capital humano para desarrollarlo y sostenerlo en el tiempo.
IA como aliada del pensamiento crítico
Para todo aquel que haya desarrollado su pensamiento crítico y una profunda curiosidad, los modelos generativos pueden ser de gran ayuda incluso para aprender cómo comunicarnos mejor con otros seres humanos. Sobre esto, Ximena Gauto Acosta, directora del Agile Business Program de la Universidad Torcuato Di Tella reflexiona "interactuar con una inteligencia artificial, nos confronta con la idea de que tenemos que hacer mejores preguntas para lograr los resultados que queremos. Muchas veces en la conversación entre humanos damos por sentado que el otro entiende cuando hablamos y después nos quejamos cuando no nos responde como esperábamos. Este es uno de los principales problemas de los equipos en las organizaciones. Por eso, aprender cómo obtener de la IA lo que necesitamos, también puede ayudarnos a mejorar nuestra comunicación con otros seres humanos".
La respuesta al desafío planteado en Yo, Robot -"¿acaso puedes tú?"- dependerá de nuestra capacidad para repensar la educación y transformarla en una herramienta clave para cada persona. Solo así lograremos que la inteligencia artificial sea -en la mayoría de los casos- una aliada, no una amenaza.
*Carmen Militza Buinizkiy, CEO de Courage Strategies Consulting. cbuinizkiy@couragestrategies.com