No todos los españoles son toreros: prejuicios e inteligencia artificial en el contact center

No todos los españoles son toreros: prejuicios e inteligencia artificial en el contact center

Las empresas intensivas en tecnología, como Amazon, Netflix o Uber, están elevando la demanda de experiencias personalizadas. La inteligencia artificial (IA) y sus técnicas relacionadas (lógica difusa, redes neuronales, aprendizaje automático, procesamiento del lenguaje natural, etc.) son el motor que impulsa estas experiencias.

La IA se está convirtiendo en un recurso cardinal en el ámbito del contact center, ya que ayuda a mejorar los resultados de negocio a través del soporte a las operaciones, convirtiendo los datos en fuente de conocimiento y elevando la calidad de las interacciones con los clientes. La presencia de la IA en los centros de contacto no es nueva: las grandes compañías han venido integrando estas tecnologías desde hace varios años, obteniendo beneficios tangibles. Lo vivido durante la pandemia, de hecho, ha acelerado los planes de digitalización de muchas empresas.

Ya sea a través de un robot de software que toma decisiones simples basándose en reglas dicotómicas (sí/no), o un complejo algoritmo que tamiza alternativas a través de patrones de datos hasta encontrar un diagnóstico, el uso de la IA proporciona al centro de contacto fuentes de ahorro en costes y mejora en los servicios. Según el informe de Ultimate.ai, “Navigating Customer Service 2021”, las empresas que apuestan por estas tecnologías se diferencian de la competencia, entregan más valor y construyen con sus clientes relaciones un 82% más duraderas.

Aunque no todo son buenas noticias. La inteligencia artificial se asemeja a la inteligencia humana en muchas de sus capacidades, pero también adolece de algunos de sus defectos. Uno de los defectos más significativos es la presencia de prejuicios sobre los clientes en materia de género, raza, atributos morfológicos o estrato socioeconómico. Como muestra, dos botones. Amazon desechó su herramienta de reclutamiento después de que el sistema aprendiera a otorgar una puntuación más baja a las solicitudes que incluían la palabra "mujer". El traductor Deepl corrigió su generador, al comprobar que para la traducción de idiomas sin pronombres de género (como el finés) a idiomas que sí los tienen (como el español o el inglés), se sugería el uso de “él” cuando la acción era “trabajar” y de “ella” cuando la acción era “hacer la colada”.

El impacto del problema no es menor. En 2017, el informe de McKinsey “A future that works: automation, employment and productivity”, reveló que el 45% de las actividades laborales podrían automatizarse empleando la tecnología del momento; y el 80% de esas actividades automatizables eran atribuibles a las capacidades de machine learning existentes. De repetirse el estudio hoy, estos porcentajes serían mayores, y la presencia de prejuicios sistémicamente insertos en los algoritmos podría ser potencialmente más acusada.

Cuando hablamos de prejuicios, nos referimos a juicios basados en atributos personales, distorsionados por valores culturales o un análisis incompleto de la evidencia empírica. La causa raíz de los prejuicios presentes en la IA no es únicamente cómo se han diseñado los algoritmos: es también con qué datos han sido entrenados. Volviendo a los ejemplos anteriores, la herramienta de reclutamiento de Amazon heredó su prejuicio de un conjunto de datos que cubría una década, durante la cual la mayoría de los currículums eran masculinos; un reflejo del desequilibrio de género en el sector tecnológico. Análogamente, los algoritmos de traducción se impregnan de los estereotipos presentes en los cientos de libros que se usan para entrenarlos; y es que la literatura tampoco es ajena a la discriminación.

El tema es complejo, particularmente en sectores como el del contact center, donde segmentar y segregar bases de datos de clientes es una necesidad insoslayable. La parcialidad y la equidad son nociones humanas complejas, y la línea que separa los sesgos justos de los injustos es muy fina. No obstante, son tantos los beneficios derivados de automatizar una respuesta adaptada a las características particulares de cada cliente, que merece la pena el esfuerzo de abordar esta cuestión con cuidado.

Es importante tener presente que lo que hace que un criterio sea más deseable que otro no es su neutralidad, sino el hecho de que pueda servir mejor a los objetivos propios en el contexto en el que se persiguen dichos objetivos. Los prejuicios en la IA son malos para el centro de contacto no por una cuestión estrictamente ética (que también), sino por la ineficiencia de la respuesta que los algoritmos sesgados proporcionan.

Muchas organizaciones comparten recursos para el despliegue de una IA confiable. El informe de la Comisión Europea “Ethics guidelines for trustworthy AI” propone un conjunto de requisitos clave que deben cumplir los sistemas de IA para ser considerados libres de prejuicios. Paralelamente, Google AI ha publicado una lista de buenas prácticas que refuerzan la imparcialidad, así como recomendaciones en otros aspectos importantes de la IA. Por su parte, Microsoft ha compartido unas directrices para que los bots de IA conversacional traten a las personas de forma justa. E IBM ha publicado AI Fairness 360, un kit de herramientas de código abierto para probar y reducir los sesgos indeseables.

Preprocesado de datos, rutinas de posprocesado, engrosamiento de los datasets, interpretación de los modelos… existen multitud de técnicas para evitar o mitigar la presencia de prejuicios en los algoritmos de IA. Correctamente diseñada y entrenada, la IA puede reducir la subjetividad humana en el análisis de la información, pues los algoritmos de aprendizaje automático se conciben para tener en cuenta sólo las variables que mejoran su precisión predictiva, basándose en los datos de entrenamiento utilizados.

Aunque investigadores y profesionales están avanzando mucho en la detección y eliminación de prejuicios en la IA, no existe aún una solución de propósito general que resuelva el reto. En MIA trabajamos para identificar casos de uso concretos en los que esta ineficiencia puede subsanarse, aplicando proactivamente estrategias técnicas que dan buenos resultados. Por ejemplo, en nuestros algoritmos de clustering aplicamos un posprocesamiento capaz de discernir en qué medida el género es o no una variable significativa a considerar. Nos apoyamos en la prueba de Kolmogorov-Smirnoff y en los estadísticos F y Z.

El sector del contact center no es ajeno a la revolución de la inteligencia artificial. Nunca como ahora, la digitalización había generado tanto potencial de mejora en los indicadores de negocio. De un sistema de aprendizaje automático bien proyectado y entrenado, se pueden obtener resultados extraordinarios. Pero como no todos los hombres son iguales, ni todos los españoles son toreros, hacen falta modelos libres de prejuicios para lograr un efecto WOW.  

 

Víctor Pérez Cuaresma
Gerente de Innovación

Disfrutamos construyendo experiencias.

ESPAÑA

PORTUGAL

ESTADOS UNIDOS