Silvia Leal: ¿Y a quien le importa lo que sienta un robot?

Los robots siempre nos han provocado una gran fascinación. ¡Tan parecidos a nosotros y a la vez tan distintos! Además, cada vez son más listos y algunos hasta tienen creatividad, intuición e incluso empatía, lo que genera admiración, pero también incertidumbre y muchos miedos. ¿Hasta dónde podría llegar su evolución?

Es más, ¿y todo esto para qué? ¿Para qué desarrollar de forma artificial cosas que hasta un niño es capaz de hacer sin ningún esfuerzo y de forma natural? ¿Para qué hay que invertir tanto tiempo y dinero en proyectos de estas características con todos los problemas que tenemos encima de la mesa y que demandan medidas urgentes? ¿De verdad es una prioridad?

Al reflexionar sobre todo esto, me viene a la cabeza una película de la ciencia ficción. ¡Cuánto aprendimos de ella, de Blade Runner! Y, por supuesto, de la novela de Philip K. Dick en la que esta se inspiró, ¿Sueñan los androides con ovejas eléctricas? En ambas se utilizaba el test Voight-Kampff, una prueba de empatía para distinguir a los humanos de los replicantes (humanos artificiales), puesto que estas máquinas podían llegar a ser más fuertes e incluso más listas, pero no más empáticas.

Silvia Leal conduce el programa Cuarta Revolución de RTVE, que puedes ver a través del servicio streaming A la carta

Más allá de la inteligencia artificial

Podríamos definir el término computación afectiva como la rama de la inteligencia artificial que se encarga de leer, analizar e interpretar nuestros sentimientos, así como de estimular determinadas reacciones emocionales durante nuestras interacciones con la tecnología y, en particular, los robots.

Fue acuñado en 1995 por la Doctora y profesora del MIT (Instituto Tecnológico de Massachusetts) Rosalind Picard con el objetivo de generar «tecnologías empáticas» (con inteligencia emocional) capaces de reducir la «brecha social» existente entre los seres humanos y las máquinas. Entre las disciplinas que han posibilitado su avance se encuentran la psicología, la neurociencia, las matemáticas y, por supuesto, las ingenierías.

Podríamos definir el término computación afectiva como la rama de la inteligencia artificial que se encarga de leer, analizar e interpretar nuestros sentimientos

Las tecnologías de computación afectiva recopilan y analizan información que los humanos percibimos de forma natural como, por ejemplo, las expresiones faciales, el movimiento de los ojos, el tono de voz o la gestualidad corporal. Para hacerlo, se utilizan herramientas como sensores, micrófonos o cámaras, dispositivos capaces de recoger la información sobre lo que está sucediendo en el entorno, tras lo que pasa a ser procesada con algoritmos de gran complejidad que clasifican todos estos datos y los comparan con información previamente recopilada o aprendida a través del «machine learning» (aprendizaje continuo de las máquinas), rama de la inteligencia artificial encargada de conseguir que las máquinas aprendan solas.

¿Y todo esto para qué? ¿Para qué desarrollar de forma artificial cosas que hasta un niño es capaz de hacer sin ningún esfuerzo y de forma natural? Pues bien, sus utilidades son tan variadas que van desde la simulación de empatía durante la atención a ancianos hasta la detección del estado emocional de clientes para mejorar la calidad y eficacia del servicio prestado por los robots en espacios tales como centros comerciales o empresas.

Silvia Leal, divulgadora, experta en inno-liderazgo y transformación digital

Test “emocional” de producto

El desarrollo de software y aplicaciones se ha convertido también en un ámbito de mucho interés para esta disciplina, dado que captar las emociones puede llegar a ser muy valioso para conseguir que un producto funcione en el mercado.

No obstante, aunque esta tecnología cada vez avance más rápido, los robots siguen siendo muy inferiores a nosotros a la hora de percibir y manejar las emociones ajenas. Por todo ello, quisiera compartir algo que me dijo Rosalind Picard al respecto el día que la conocí en Boston: “Los robots pueden detectar cosas que las personas no pueden. Por ejemplo, en un vídeo pueden ver a qué ritmo late tu corazón”.

No debemos centrarnos tanto en la comparativa entre personas y máquinas, sino en cómo nos podrían ayudar esas otras habilidades a percibir mejor el mundo y a que lo perciban mejor también las aplicaciones y los robots. Lograrlo puede llegar a ser muy rentable.

COMPARTIR
Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn