Debemos integrar la Inteligencia Artificial (IA) a la Experiencia de Usuario (UX) y recordar que las máquinas están modeladas por humanos.
La Inteligencia Artificial (IA) está en boca de todos. Es una de las palabras más mencionadas (y manoseadas) de los últimos tiempos. Se usa para todo. Y cada uno entiende como quiere. Podemos considerar inteligente a la aspiradora que pasa por los lugares sucios de la casa y también al chat artificial con el que creemos que estamos “conversando”. Todo se considera inteligencia. Y artificial por el hecho de no haber sido modelada por la naturaleza.
Pero hasta el momento, la manera de relacionarnos con las máquinas es reactiva. A través de la voz, de un teclado, de una pantalla, de un touchpad o de nuestro propio cuerpo le damos una instrucción (input) que nos devuelve un resultado (output). Nada inteligente con aquello.
Salvo que ayudemos a la máquina a establecer las relaciones que hay en esos resultados y que esta pueda ir atesorando dichos resultados. Sabrá que cuando alguien pide un input relativamente parecido, va a entregar un output similar al que ha entregado otras veces. ¡Voilá!
Usuario de inteligencia artificial
La inteligencia artificial está basada en códigos humanos. Y esa es la definición que más se le acerca. A pesar de que el término parte en 1956 con Mc Carthy en la conferencia de Dartmouth, aún no hay un consenso generalizado acerca de la definición. Winston y Brown en Artificial intelligence, an MIT perspective, hablan de que “operacionalmente, queremos hacer que las máquinas sean inteligentes”. El problema está en cuál es esa definición de inteligencia.
Es precisamente en estos límites en que la IA se topa con la Experiencia de Usuario (UX). La intersección radica en la confiabilidad, credibilidad y usabilidad de esa inteligencia. Dado que no hay una definición ni una certeza de la inteligencia, la experiencia siempre bailará en el límite de la desconfianza, la incredulidad y la desadaptación. Desmenucemos.
Objetividad vs. subjetividad
A diferencia de una opinión, cuando nos exponemos a un dato aislado (en un gráfico, en un texto o en un recurso audiovisual) tendemos a creer que es verdadero. Si viene respaldado por una fuente, le damos más crédito. Cuando ese dato está en un contexto (una web, una aplicación o un software) tendemos a darle un significado. Y ese significado dependerá de nuestra propia percepción e intencionalidad.
De esta manera, considerar que una máquina es objetiva en sus respuestas no puede distar más de la realidad. Dichas respuestas no solo están condicionadas al resultado que busca un usuario, sino al significado que este le da en su propia lectura. Ese significado no lo conoce la máquina, por eso muchas veces, aunque siga un orden lógico para la mayoría, puede resultar ajeno para otros, generando desconfianza hacia aquello que, a primera vista, parecía verdadero.
Esta subjetividad se ve exacerbada con la permanente confusión de que las máquinas son objetivas y de que todo lo que allí se presenta es verdadero. Entender y responsabilizarse de este hecho es parte fundamental de poder considerar una UX basada no solo en que las personas (los seres humanos) se equivocan, sino que las máquinas pueden entregar datos correctos en contextos que son leídos de manera errónea.
La ley de la incredulidad
Habiendo despejado el concepto del entendimiento en contexto, es fundamental analizar cómo esa carencia afecta la relación de las personas con las máquinas. Partir de la base de que, por ahora, las máquinas no son inefables y que su comportamiento está modelado por seres humanos, es asignarles el peso que corresponde. Si bien las máquinas son capaces de aprender sobre estos comportamientos modelados, aquellos modelos son circunscritos a la mente de un humano. Son poco amplios y disponen de una capacidad de memoria que aún es limitada para la cantidad de posibilidades de percepción y comprensión humanas existentes.
Incluir el error, la inexactitud y la amplitud de la data como parte de la interacción entre el usuario y la máquina es asignarle a los sistemas una habilidad compartida por los humanos: la empatía y la capacidad de resiliencia y recuperación. Querer situarlas como objetos infalibles, inefables e incorruptibles es ponerlas en un sitial de distancia con los seres humanos que es una mera falacia.
El mundo de los desadaptados
Cuando interactuamos con distintos sistemas, nos es transparente cómo se recuperan los datos en dichos sistemas. Podemos estar (o no) frente a sistemas de IA. Por esa razón, es importante que el diseño de interfaces que interactúan con inteligencia artificial considere las mismas normas de experiencia de uso que en sistemas que no utilizan estos algoritmos. Seguir las heurísticas de Jakob Nielsen, en donde aprendizaje, errores, memoria, eficiencia y satisfacción aparecen como componentes principales, se hace imperativo.
Es fundamental lograr perfilar a los usuarios de estos sistemas. Saber cuáles son sus necesidades, motivaciones y frenos, para poder empatizar con cómo interactúan con sistemas de inteligencia artificial. Y también como lo harían con una web, una app o cualquier otro software que no se precie de inteligente. Aún más, considerar los puntos antes mencionados, la desconfianza y la incredulidad, como parte del diseño de la interfaz, a través de mensajes de error claros; rutas de uso y navegación bien definidas, señalizadas y lógicas; rótulos entendibles; íconos universales; interfaces bien jerarquizadas; y posibilidades de recuperación de errores claros; son un deber.
Hacer entender a los usuarios que las máquinas están programadas y modeladas por humanos y que, tal como los humanos, interactuamos con ellas en entornos que no son inefables, impecables y muchos menos, exactos, es parte de la relación que debemos construir. Y para eso está el UX. Ahora nuestro desafío es integrar a la IA como parte suya.
Infórmate sobre el curso User experience: Conceptos básicos para el desarrollo de productos digitales (a distancia) de Teleduc.