El cine y la literatura nos ha mostrado en muchas ocasiones el problema que puede suponer darle a una máquina la capacidad de experimentar emociones. Y este no es un problema baladí: dado el estado de la técnica actual, es algo que hay que considerar pues puede llegar a ser posible.

Más allá de lo que esto, por sí mismo, podría provocar, hay otra cuestión: cómo nos sentiríamos nosotros si las máquinas pudiesen sentir. ¿Estaríamos cómodos con ellas? ¿Experimentaríamos empatía? ¿Mejoraría nuestra experiencia con esas máquinas? Las respuestas a estas preguntas son varias, así que vayamos por partes.

Un robot que expresa emociones

Cara de robot

Esta de la imagen es Octavia. Es un robot diseñado para combatir incendios en los barcos de la Armada estadounidense. Y tiene una peculiaridad: puede emplear una amplia gama de expresiones faciales. Es capaz de asentir con la cabeza, expresar alarma en su rostro ensanchando los ojos y levantando las cejas y hasta hacer un gesto cómico arqueando una ceja y estrechando el ojo opuesto.

Pero lo más impresionante de este robot es que esas expresiones las muestra como respuesta a sus interacciones con los humanos: cuando reconoce a una compañera de equipo, se muestra complacida; cuando le dan una orden inesperada, se muestra sorprendida; cuando le dicen algo que no entiende, se muestra confundida.

A través de dos cámaras integradas en los ojos, Octavia analiza características como rasgos faciales y ropa. La detección de voz se hace a través de cuatro micrófonos y un software de reconocimiento llamado Sphinx. Hasta puede identificar 25 objetos diferentes por medio del tacto, los cuales ha aprendido a manipular usando sus dedos. Según sus creadores en el Centro de Investigación Aplicada en Inteligencia Artificial de la Marina, esto le permite a Octavia «pensar y actuar de maneras similares a las personas».

Todo lo que vemos de Octavia externamente nos lleva a pensar que el robot «siente», experimenta emociones. Pero esto no es así. Su expresividad ha sido pensada para que sea más fácil que la gente interactúe con ella. «Por dentro»,  Octavia no siente porque no está programada para ello.

Estamos muy lejos de dotar de emociones a las máquinas

Robot de película

Octavia no está programada con modelos emocionales, sino con un patrón cognitivo. Pero funciona de manera muy parecida a la empatía, una de las características más preciadas de los seres humanos, si es que no la que más.

La programación de Octavia se basa en teoría de la mente para que pueda anticiparse a los estados mentales de sus compañeros humanos. Entiende que las personas tienen creencias o intenciones potencialmente conflictivas. Cuando se le da una orden que difiere de sus expectativas, Octavia ejecuta simulaciones para determinar lo que el compañero de equipo que se la diopodría estar pensando, y por qué esa persona piensa que esta meta inesperada es válida. Hace esto a través de sus propios modelos del mundo, pero alterándolos ligeramente, esperando encontrar uno que conduzca a la meta declarada. Cuando inclina la cabeza hacia un lado y arruga las cejas es para señalar que está haciendo estas simulaciones, tratando de entender mejor las creencias del humano.

Pero no, Octavia no siente tal y como sentimos nosotros. Y todavía falta mucho para que pueda hacerlo.

Las emociones son algo muy complejo. Influyen en nuestro pensamiento y, al mismo tiempo, son influenciadas por este, por lo que no siempre es posible trazar una línea divisoria entre pensar y sentir. Tal y como dice Gregory Trafton, director de la Sección de Sistemas Inteligentes en el centro de IA de la Marina, «las emociones influencian en la cognición y la cognición influye en la emoción».

Las revoluciones en psicología y neurociencia que se han producido en los últimos años han redefinido radicalmente el concepto mismo de emoción, haciéndolo aún más difícil de precisar y describir. No sabemos todavía todo lo que está involucrado en las emociones y, por lo tanto, tratar de replicarlas en máquinas se vuelve algo muy complicado.

Hacer un robot «sentiente» sería cruel, pero…

Robot grande en desierto

Pero asumamos por un momento que fuese posible lograr que las máquinas experimentes emociones. ¿Deberíamos hacerlo? La respuesta no es tan sencilla como parece, pues nos encontramos ante un verdadero dilema moral.

Hay que considerar que la Estrategia de Sistemas Robóticos y Autónomos de 2017 del Ejército de Estados Unidos predice la plena integración de sistemas autónomos para el año 2040, reemplazando a los robots actuales de desactivación de bombas y otras máquinas operadas remotamente por humanos. Y no olvidemos la aplicación de robots en tareas más agresivas en el campo de batalla (sí: matar). Teniendo esto en cuenta, dotar de emociones a un robot que tiene como objetivo exponerse a actividades peligrosas sería cruel y hasta sádico.

Ahora bien, si las emociones influyen en la inteligencia y esta en las emociones, quizá un robot sin ellas no sería un completamente inteligente. Lo mismo la falta de emociones le lleva a tomar decisiones estúpidas, riesgos innecesarios o represalias excesivamente crueles. En el peor de los casos,  podría valorar como una decisión inteligente el cometer lo que un humano no dudaría en considerar como un crimen de guerra.

Y la cosa va más allá, porque existe la posibilidad de que inteligencia y emoción estén completamente ligadas entre sí, de manera que no pueda existir la una sin la otra. De esta forma, el terreno se hace cada vez más pantanoso y se hace muy difícil circular por él.

De todas formas, creamos vínculos afectivos con las máquinas

Robot pequeño

Otro punto a considerar es el de la relación de los robots con los seres humanos. ¿Un robot «emocional» se relacionaría mejor? ¿Haría que sintamos un mayor afecto por él, que lo valoremos más, que lo consideremos como un compañero? Pues aquí entra lo más curioso de todo el asunto: no, no sería necesario.

Actualmente, el ejército de los Estados Unidos utiliza de manera habitual robots en el campo de batalla. En el caso de los que son utilizados para detección y desactivación de artefactos explosivos, un estudio reveló que los soldados humanos desarrollan vínculos con ellos a pesar de lo inexpresivos que son estos aparatos.

En «Cultura e Interacción Humano-Robot en Espacios Militarizados», Julie Carpenter demostró que las relaciones que se establecen son complicadas, gratificantes y dolorosas. Diversos soldados describieron sentimientos de pérdida cuando algo les pasaba a sus robots y, aunque no eran de la misma intensidad que los experimentados ante la pérdida de una vida humana, la sensación y el vínculo estaba ahí.

¿Un robot «sentiente» haría que este vínculo fuese más intenso pero también más productivo o enriquecedor? ¿O tal vez solo entorpecería el desempeño de la máquina y haría sufrir a los humanos que se relacionasen con ella? Como vemos, no son cuestiones sencillas de resolver. Sobre todo, porque no se pueden manejar de manera aislada cada una de ellas, sino que todas se entrecruzan y están relacionadas entre sí. Todavía nos falta mucho por conocer de la mente humana. Y, por lo tanto, también mucho para crear máquinas que sean inteligentes de verdad, tal y como lo entendemos en nosotros mismos. Más que nada, porque todavía no terminamos de entenderlo.