Hace muchos años, cuando arrancó el Internet, mi esposa me decía que eso no iba a funcionar, que con la llegada del e-commerce ella no iba a comprar en el supermercado de forma digital o, incluso, tampoco adquiriría ropa sin antes verla en persona. Más de dos décadas después mis hijos, cuando nos vamos de vacaciones, lo primero que nos preguntan es si hay WiFi en la casa.
Esa tecnología (que para quienes la vimos nacer era una revolución sin precedentes) ya se embebió en todo lo que hacemos y estoy seguro de que va a pasar lo mismo con la Inteligencia Artificial Generativa o GenIA.
En esta línea, recuerdo un informe de Microsoft, donde se revelaba que el 63 % de los trabajadores argentinos encuestados estaba dispuesto a delegar la mayoría de sus tareas a la IA para optimizar su carga laboral y que, además, el 30 % se sentiría cómodo usando estos sistemas no solo para tareas administrativas, sino también analíticas y creativas.
Hace un año, en las reuniones que tenía con colegas y clientes, muchos se mostraban escépticos, preguntaban a los más jóvenes de qué se trataba, cómo podían aplicarlo, si era costoso y cientos de otras dudas para las que en ese momento no teníamos respuesta. Hoy me gustaría que reflexionemos juntos sobre los tres aprendizajes que obtuve luego de la implementación de la GenIA en nuestros propios procesos.
Lo primero, es la ética y la transparencia
Para los que desarrollamos software, la ética y la transparencia van de la mano y son dos cuestiones innegociables. Por un lado, debemos ayudar a nuestros usuarios a comprender los alcances y límites de nuestros productos para que ellos puedan usarlos conociendo, por ejemplo, si los resultados pueden o no incluir algún tipo de “alucinación”, es decir cuando arrojan conclusiones sin sentido o erróneas.
Por el otro, la velocidad de actualizaciones de los productos con IA es cada vez más corta: con la opción de clonar voz, de hacer que una foto pueda hablar o de colocar la cara de una persona en el cuerpo de otro, como en los deepfakes, nos vemos impulsados a diseñar mecanismos para mitigar con mayor facilidad los contenidos no éticos que son desarrollados con IA.
La clave es educar y capacitar para el futuro
Según un informe de Bumeran, el 85 % de los trabajadores argentinos aseguró que se está capacitando en cómo funciona la IA en su área laboral para hacerle frente a esta tecnología y aprovecharla al máximo para evitar, a su vez, ser reemplazado por ella.
Está claro que esta herramienta llegó para quedarse y, como decía antes, en un par de años la IA será parte de todo lo que nos rodea. Por esta razón, debemos empezar a educar a los más chicos y, por qué no, a nosotros mismos en estas tecnologías, en cómo nacen, cómo funcionan y cómo se entrenan para no quedarnos por fuera de lo que hoy es una nueva herramienta laboral.
La persona sigue supervisando
Mi hijo de 16 años me pidió ayuda con un problema de estadística. Sin decirle nada, hice competir a ChatGPT y a Google para ver cuál me arrojaba la mejor respuesta. Para mi propia sorpresa ganó el buscador. Si bien el sistema de OpenIA argumentó bien, al final arrojaba un cálculo que no era correcto.
Esta pequeña experiencia reafirmó la idea de que por lo menos hoy, la IA es una tecnología que nos ayuda, pero sigue necesitando de la supervisión humana, especialmente para comprender problemas complejos. Por eso en NEORIS comenzamos a hablar de IA x Human Power, este concepto que busca transmitir que las cualidades de los talentos se potencian con la ayuda de estas herramientas.
La IA Generativa todavía tiene mucha historia que contar y, sorpresivamente, nosotros somos los protagonistas con la capacidad de impulsar su continuo desarrollo. Por eso quiero proponerles que, para enriquecer las propias experiencias futuras, primero abracemos sin temor estos aprendizajes, porque para navegar con éxito el futuro disruptivo al que queremos llegar de la mano de la tecnología, debemos primero experimentar y aprender para transmitir nuestros descubrimientos.
* Por Martín Mendez, CEO de NEORIS