Los desarrolladores de chatbots se encuentran ante el desafío de mejorar la experiencia al cliente. “Antes vendíamos chatbots fácilmente, todo el mundo quería implementar uno. Pero después se dieron cuenta de que un chatbot mal diseñado terminaba generando una mala imagen para la empresa. Se llegó a la situación que desde el punto de vista de la imagen corporativa era mejor no tenerlo a tenerlo”, señala un desarrollador dedicado a estas soluciones.
"Realmente los chatbots actuales dan la sensación que fueron pensados para evitar atender a los clientes en lugar de intentar solucionar sus problemas. La experiencia actual es muy frustrante y es quizá una gran oportunidad para la inteligencia artificial. Sin dudas se trata de la tecnología mas disruptiva que hemos visto ya estoy considerando que tendrá un impacto superior o similar al que tuvieron Internet y el celular", pronostica Diego Salama, Dynamic Technology Executive de Meta.
El problema es que los datos que recogen los chatbots sobre su uso muchas veces están más pensados para justificar su implementación más para entender las necesidades del cliente. Y la experiencia del cliente pasa a ser que sólo le agregaron otro filtro mas que no soluciona sus problemas para llegar finalmente con un humano que tampoco se los solucionará.
Desde Botmaker, empresa que se dedica la crear y administrar chatbots, explican cómo ChatGPT, el producto de consumo de más rápido crecimiento en la historia, tuvo un impacto significativo en la forma en que las empresas se comunican con sus clientes. “Todo lo que se sabía del funcionamiento de chatbots conversacionales, hasta no hace mucho, se vio afectado por la inteligencia artificial conversacional y se comenzó a hablar de “un antes y un después tanto en el diseño como en desarrollo del customer experiencie”, señala Pablo Dorado, Sales and Operations Manager para Botmaker en Lationamérica.
Para el desarrollo de un asistente virtual era esencial detectar cuáles serían las preguntas frecuentes de los consumidores y, a partir de ahí, desarrollar las respuestas fijas que el bot debía contestar. Aquellas que no eran detectadas y respondidas entraban en lo llamado “No entendido”, para lo cual se le indicaba al robot cómo proceder, posiblemente derivando al usuario con un agente humano.
Esto está lejos de suceder en el nuevo modelo, en el que el chatbot es entrenado con “Bases de conocimiento” armadas a partir del sitio web de la compañía, documentación interna y el historial de conversaciones. Todo esto se comparte con la IA conversacional que lo utiliza, junto con el contexto, para reconocer las preguntas y responder de manera dinámica. Ya no se habla de un “No entendido” sino de un “No quiero hablar de eso” que se determina a través de los territorios de no respuesta, aquellos temas de los cuales el bot tiene prohibido hablar.
Botmaker ya incorporó esta tecnología como una funcionalidad (Knowledge Base) dentro de su plataforma, facilitando a los los clientes la creación de un chatbot con un rango de respuesta mucho más amplio que el de la manera “tradicional”. Todo lo que el asistente virtual debe hacer es acceder a esa información provista por la compañía para generar una respuesta acorde a lo que se le pregunta.
Sin embargo, el control que antes la compañía tenía sobre el tono, la voz y la personalidad del bot, con la llegada de los modelos de lenguaje, se reduce a una definición general. “Ya no tenemos el control absoluto de lo que queremos que el asistente virtual responda, sino que hay un margen que se deja librado a la creatividad de la herramienta. Sin embargo, sí se parametriza a nivel general, por ejemplo, si queremos que sea simpático, que use negrita, que responda en dos o cuatro mensajes, si usa emojis, etc.”, explica Dorado,
Además de un control más laxo sobre la personalidad del asistente virtual, el mantener un flujo conversacional con el fin de transaccionar sigue siendo un desafío en la interacción con los consumidores. Sin embargo, el robot puede recibir feedback de las respuestas de los agentes humanos, lo que alimentará la base de conocimiento y mejorará la experiencia del cliente.
“En este momento, las áreas de tecnología y Customer Success están directamente vinculadas para cuidar la felicidad del cliente en todos los puntos de contacto. La automatización también requiere humanización. Entrenamos a nuestros chatbots mediante datos que subyacen al servicio centrado en la satisfacción del usuario, con lo que las respuestas genéricas se sustituyen por conversaciones cada vez más personalizadas. Estamos en un momento de evolución cuya frontera entre humano y robot es cada vez más difusa”, se entusiasma Alejandro Zuzenberg, co-Founder de Botmaker
La seguridad y privacidad siguen siendo una preocupación especialmente para los usuarios. Por un lado, la información que compone la base de conocimiento es compartida con ChatGPT y, por tanto, se vuelve pública. Será la compañía quien decida qué documentos internos decide compartir; cuanta más información, mayor será la precisión de respuesta, pero también la exposición. Por otro lado, los datos personales provistos por los consumidores (nombre, DNI, dirección, etc.) son identificados automáticamente por la plataforma de Botmaker y encriptados para evitar su difusión.
La adopción de la IA conversacional significó una aceleración en la resolución de problemas, así como la disponibilidad 24hs en múltiples canales que permite la reducción de carga laboral, la administración de contenido y el ahorro de costos. A su vez, esta tecnología tiene una gran capacidad de análisis de datos para retroalimentar y expandir la base de conocimiento.
Si bien se piensa en un antes y un después, estos dos modelos de chatbots no son exclusivos uno del otro. “Muchos proyectos aún están en el primer modelo y van a estarlo por un largo tiempo, pero además van a convivir con esta nueva versión. Los robots que ya estén diseñados con intenciones, respuestas, ejemplos de preguntas y con historial de conversaciones alimentarán la base de conocimiento para el nuevo modelo, alcanzando un nivel de personalización y seguridad en la respuesta mucho mayor que si creáramos el chatbot desde cero”, concluye Dorado.