Experiencia de flujo o valle inquietante ¿Qué siente el cliente ante las máquinas?

Entender qué opinan los clientes sobre la intrusión de la inteligencia artificial en sus vidas privadas por parte de las marcas es relevante ya que los usuarios demandan productos personalizados y adaptados a sus necesidades y sin embargo,  hay un rechazo demostrado y documentado sobre el miedo a que seamos manejados por algoritmos.

El denominado valle inquietante (Masahiro Mori, 1970 citado en Sugiyama, 2021) refleja el temor que tenemos los humanos a las máquinas que empiezan a aprender y adoptan aspectos que revelan su cercanía a nuestro mundo conocido, sobre todo, cuando estas máquinas tienen una representación física o nos vemos reflejados en su comportamiento.

Fuente: https://es.wikipedia.org/wiki/Valle_inquietante

Curiosamente, nos apasiona el reto que supone la tecnología, denominado experiencia de flujo (Nakamura,  & Csikszentmihalyi, 2020) hasta que empieza a humanizarse (El País, 2018, ). Esta es la razón de por qué las empresas tecnológicas apuestan por maquinas que parezcan robots, sin aspecto humano, para eliminar el malestar de la duda.  Los expertos lo relacionan con nuestro instinto de supervivencia, basado en el miedo a lo desconocido y la sensación de control que necesitamos de nuestro entorno y cuando una máquina no produce respuestas esperadas, la sensación de alarma se dispara.

Valle inquietante o tecnofobia, es una realidad que el uso de la inteligencia artificial por parte de las empresas e instituciones produce rechazos. Sin embargo,  a pesar del temor a ser estudiados por las máquinas y las marcas, el marco de referencia revela que los clientes quieren ser conocidos  por sus compañías y cocrear con ellas en busca de soluciones a sus problemas.  Hasta un 70% considera que el feedback forma parte de la relación con el cliente (Medallia & Neovantas y Asociación DEC, 2021) pero, como dice Marquerie (2021) “Lo único que nos diferencia de las máquinas es el miedo”.

Sabemos que la Inteligencia artificial ha llegado para quedarse pero necesita datos de las personas (big data y small  data, Lindstrom, 2016) y tiene un largo camino simular el pensamiento humano, basado en el lenguaje y el razonamiento, para  comprender el entorno y tomar las mejores decisiones.  En este punto quería centrar esta reflexión.

En décadas pasadas, el machine learning  se basaba en conjuntos de descripciones que se proporcionaban a las máquinas como léxico a controlar (Labeled LDA ) en fuentes de datos, estructurados o no y  que sus algoritmos de análisis permitían encontrar e identificar en el entorno, aprendiendo nuevos tópicos. Son los llamados Machine Learning based Models for Semantic Recognition.  Su entrenamiento continuo es imprescindible para entender el lenguaje humano en los diferentes contextos de la relación.  Sin embargo, no ha sido hasta la inclusión de las tres dimensiones del modelo ABC (affection, behavior intention, and cognition towards en Freedman et al., 1978; Rosenberg et al., 1960; Sears et al., 1995)  que podamos hablar de la utilidad de los machine learning  como aplicación a la teoría de la actitud del consumidor.

Por tanto, toda acción para entrenar y mejorar estos semantic recognition framework, establecer nuevo vocabulario, conectar con las emociones y comprender el contexto se revela como tarea de gran responsabilidad y sujeto a limitaciones éticas ya que permitirán la toma de decisiones automáticas adecuadas o, por el contrario, perjudiciales o éticamente cuestionables.

Y precisamente porque este aprendizaje de la semántica automática debe ser universal, en un mundo de economía global y donde cada entrenamiento produce decisiones de inteligencia artificial cada vez más complejas, que no puede producirse un mal o sesgado aprendizaje de las máquinas. Aunque estemos en la era de las redes neuronales, Deep Learning (Orange, 2021) y el conocimiento se distribuya en capas que comparten juicios de valor, el aprendizaje siempre se basará en el entorno y en los patrones que se le suministren.

Entonces ¿estamos pues en una disyuntiva que podríamos considerar la existencia de una Psicológica de las Máquinas?  Evidentemente no, porque su etimología apela al alma, pero es indudable que el aprendizaje debe ser controlado y bien realizado si queremos que nuestra relación con las máquinas sea la realidad de propugna Kotler (Kotler et all, 2021, creadores del concepto de Marketing 5.0), Tecnología + humanidad.

 

M Dolores Méndez Aparicio

Manager de Aplicaciones en Mutua Madrileña

Dra. En Economía

maulemam@gmail.com
linkedin.com/in/dra-mª-dolores-méndez-aparicio-06a02790
https://orcid.org/0000-0003-1787-8031

Referencias:

Entradas relacionadas

Comentarios (1)

El humano por naturaleza le teme en cierta forma a todo aquello sobre lo cual no puede tener un control total, o a lo desconocido, hasta q comienza a aprender

Dejar un comentario

Este sitio esta protegido por reCAPTCHA y laPolítica de privacidady losTérminos del servicio de Googlese aplican.

El periodo de verificación de reCAPTCHA ha caducado. Por favor, recarga la página.