Alfredo Redondo, CEO de Altitude Software.
Alfredo Redondo, CEO de Altitude Software.

A los humanos no nos gusta hablar con las máquinas. Pero estamos ‘condenados’ a entendernos con ellas. Más de 2.000 millones de personas utilizan asistentes virtuales como Siri de iPhone, Amazon Alexa o Google Home, que se comunican con los usuarios para guiarles, resolver dudas o entregarles servicios y contenido.

En términos sencillos, un chatbot es un software que automatiza y simula la conversación con humanos. Puede funcionar en una aplicación de mensajería o integrada en un sitio web o plataforma de red social, pero sobre todo a través de centros de atención al cliente y soporte.

Este año, una de cada cuatro interacciones con un contact center será atendida por una máquina con capacidad de aprender, que resolverá el 80% de las consultas. La razón está en la rápida evolución de la Inteligencia Artificial. Desde la primitiva ELIZA de los años 60 (chatbot basado en reglas), las técnicas de aprendizaje automático son ahora verdaderamente inteligentes.

Los chatbots ayudan al cliente con tareas simples y complejas: desde proporcionar una dirección postal hasta gestionar un pedido o generar una factura y enviarla por e-mail. También recopilan información de contexto antes de transferir la llamada a un agente humano en caso necesario, acelerando los tiempos de resolución, reduciendo los de espera y atendiendo en modo 24x7.

Privacidad por diseño

Pero, aunque los chatbots y asistentes virtuales ofrecen múltiples beneficios, también crean grandes desafíos legales y éticos. Para mantener conversaciones relevantes, las aplicaciones de IA necesitan ser ‘alimentadas’ y ‘entrenadas’ con datos personales, aumentando la preocupación sobre la privacidad.

El caso Cambridge Analytica y el Reglamento General de Protección de Datos (RGPD) han redibujado este panorama. La nueva normativa europea para la era digital afecta directamente a los chatbots, limitando la forma en que las compañías pueden gestionar la información capaz de identificarnos: nombre, domicilio, e incluso e-mail y dirección IP.

 La nueva normativa europea para la era digital afecta directamente a los chatbots

Uno de los principios del RGPD es que la protección de los datos personales debe ser proactiva, implementando la ‘privacidad por diseño’. Al diseñarse, los chatbots tienen que integrar las medidas necesarias para proteger la privacidad de los usuarios. Esto incluye los derechos de acceso, rectificación, cancelación y oposición.

Igualmente, los contact centers, para quienes la gestión de información y datos forma parte de su día a día, deben prestar especial atención a la protección de los datos del cliente. Se recomienda centralizarlos en un único directorio y organizarlos por categorías para que, de esta forma, el agente/chatbot sólo pueda acceder a aquellos datos personales necesarios para gestionar una solicitud. El cifrado de datos y conversaciones y las herramientas antimalware son también esenciales para garantizar una protección efectiva.

¿Amenaza o aliados?

Los chatbots nunca reemplazarán a las personas, pero pueden ayudarnos. Mediante la IA, facilitan una comunicación personalizada. Y se ocupan de las tareas monótonas y repetitivas, liberando el potencial humano de una manera inteligente y eficiente. Aunque en ciertos casos la comunicación con una máquina nos resulte menos familiar o cercana, cada vez es más común su aceptación gracias a los positivos resultados que ofrece y a las mejoras en cuanto pronunciación, entonación y entendimiento.

Los chatbots nunca reemplazarán a las personas, pero pueden ayudarnos

Se adaptan a todos los sectores: moda, servicios financieros, alimentación e incluso atención sanitaria. Y gracias a la ‘nube’ y a los avances de software, las pymes pueden utilizarlos de forma económica y funcional. En cierta medida, los robots están tan presentes en nuestra realidad que empresas y expertos ya comienzan a preguntarse si se les deberían garantizar ciertos derechos. Esta cuestión se plantea con el fin de que respondan legal e individualmente ante sus acciones en base a una idea ya introducida por el Parlamento Europeo. Su fin es el de considerar a los robots autónomos más sofisticados como “personas electrónicas” y que sean responsables de reparar cualquier daño ocasionado.

Tampoco son una amenaza para el trabajo. Se estima que la IA creará de dos a tres empleos por cada uno que automatice, todos ellos de valor añadido. Aunque los chatbots reconocen las emociones humanas, nunca tendrán ética. Pero sí las empresas y los proveedores tecnológicos de estas soluciones. El entrenamiento que se aplique, la ética y la experiencia del proveedor es fundamental para mantener nuestra privacidad y seguridad.