etica-maquinas

Cada vez que Boston Dynamics saca un nuevo vídeo, un escalofrío recorre nuestra espalda: sus robots tienen cada vez movimientos más fluidos y siempre mejoran su interacción con el entorno. Y aunque estamos todavía muy lejos de un terminator con huesos de metal, parece que el día en que los veamos caminar por las calles está ya en el horizonte.

Sin embargo, hay que considerar que para lograr cosas como las que hacen los robots de Boston Dynamics lo que hay detrás es la aplicación de algo con lo que ya estamos interactuando en nuestra vida diaria: el machine learning o aprendizaje automático. O dicho de otra forma: la inteligencia artificial.

La inteligencia artificial tiene muchas ramas y aplicaciones. Sin embargo, en muchas ocasiones, los avances en un campo concreto terminan por afectar a otros, contribuyendo a su desarrollo. Esto ha hecho que esta tecnología se esté desarrollando muy rápido, tan rápido que, si no reaccionamos con la misma rapidez, podría sobrepasarnos. Y esto no en el sentido de que llegue a ser más inteligente que nosotros, sino en el de que no hayamos tomado las medidas de seguridad pertinentes para evitar fallos catastróficos.

Es a esto último a lo que se refiere Elon Musk con sus constantes llamadas de atención sobre este asunto, algo que ha hecho que algunos le vean como un alarmista. Sin embargo, en un mundo en la presencia y el uso de algoritmos es cada vez mayor, es muy posible que haya llegado el momento de empezar a plantearnos seriamente cómo dotar a nuestras máquinas de elementos tan importantes como la ética o la moralidad.

Esto no es una cuestión que, como ciudadanos de a pie, nos quede lejos. Hoy día, la inteligencia artificial se aplica en cada vez más partes y de ahí que urja prestar atención a cómo una máquina está tomando decisiones morales en situaciones prácticas del día a día. Por ejemplo, esto es relevante cuando los algoritmos toman decisiones sobre quién tiene acceso a un préstamo o cuando los vehículos autónomos tienen que calcular el valor de una vida humana en situaciones peligrosas.

Ética y moralidad: lo que deben aprender las máquinas

normas

Enseñar moralidad a una máquina es, como poco, muy complicado. Los humanos no podemos transmitirla objetivamente en métricas mensurables que faciliten su procesamiento por una computadora. De hecho, es incluso cuestionable si tenemos una comprensión acerca de ella en la que todos estemos de acuerdo.

En los dilemas morales, los seres humanos tendemos a confiar en el instinto en lugar de elaborar cálculos de costo-beneficio. Esto último, está incluso mal visto y se considera demasiado «frío». Pero, por otra parte, las máquinas necesitan métricas explícitas y objetivas que puedan medirse y optimizarse claramente.

Esto nos lleva a que a una máquina no se le pueda enseñar lo que es justo a menos que los ingenieros que diseñan el sistema de IA tengan una concepción precisa de lo que es la justicia. De ahí que algunos autores se preocupen de que una aplicación ingenua de algoritmos a problemas cotidianos podría amplificar la discriminación estructural y reproducir sesgos en los datos en los que se basan. En el peor de los casos, los algoritmos podrían negar servicios a las minorías, impedir oportunidades de empleo u obligar a que se elija al candidato político equivocado.

Teniendo esto en cuenta, Vyacheslav Polonski, investigador de la Universidad de Oxford, y Jane Zavalishina, CEO de Yandex Data Factory, escribieron un artículo en World Economic Forum donde describían 3 maneras de empezar a diseñar máquinas más alineadas éticamente. Son las siguientes:

Definir el comportamiento ético

Aunque sería una tarea desafiante, no es imposible. Se trata de que nos pongamos de acuerdo sobre el curso de acción más ético en cualquier situación dada. Por ejemplo, la Comisión de Ética de la Conducción Automatizada y Conectada de Alemania ha recomendado que se programen específicamente valores éticos en los vehículos autónomos para dar prioridad a la protección de la vida humana por encima de todo lo demás. En caso de accidente inevitable, el auto debe tener «prohibido compensar las víctimas entre sí». En otras palabras, un auto no debe ser capaz de elegir si matar o no a una persona basándose en características individuales, como la edad, el sexo o la constitución física o mental cuando un choque es inevitable.

Recurrir a la «sabiduría de las multitudes»

Incluso si conseguimos definir métricas específicas para nuestros valores éticos, una IA puede tener dificultades para captarlas si no hay suficientes datos imparciales para entrenar modelos. Conseguir los datos apropiados es un desafío porque las normas éticas no siempre pueden ser claramente estandarizadas y, en ocasiones, no solo hay un curso ético de acción, sino varios. Una manera de resolver esto sería buscar posibles soluciones a los dilemas morales de millones de seres humanos. Por ejemplo, el proyecto de Máquinas Morales (Moral Machine) del MIT muestra cómo los datos procedentes de mucha gente pueden utilizarse para entrenar eficazmente a las máquinas a fin de que tomen mejores decisiones morales en el contexto de la conducción autónoma de vehículos.

Mayor transparencia

Los responsables de la formulación de políticas deben poner en práctica directrices que hagan más transparentes las decisiones de AI con respecto a la ética, especialmente con respecto a las métricas y los resultados éticos. Si los sistemas de IA cometen errores o tienen consecuencias no deseadas, no podemos aceptar «el algoritmo lo hizo» como una excusa.

Exigir transparencia algorítmica completa es técnicamente insostenible porque las redes neuronales son demasiado complejas para ser examinadas por inspectores humanos. Sin embargo, debería haber más transparencia en la forma en que los ingenieros cuantifican los valores éticos antes de programarlos, así como los resultados que la IA ha producido como resultado de estas elecciones. En el caso de los vehículos autónomos, por ejemplo, esto podría implicar que se lleven registros detallados de todas las decisiones automatizadas en todo momento para garantizar su responsabilidad ética.

Estas recomendaciones son, según Polonski y Zavalishina, tan solo un punto de partida para desarrollar IA éticas. De no incluir la ética como parte del desarrollo tecnológico, es posible que nos encontremos en la peligrosa situación de permitir que los algoritmos decidan qué es lo mejor para nosotros. Si no tomamos medidas al respecto, con las máquinas más presentes en la sociedad cada día, el precio de la inacción podría ser enorme, pues podría afectar negativamente a las vidas de miles de millones de personas.

¿Es un reto enorme? Desde luego. ¿Es imposible? No. Y si no lo asumimos y enfrentamos, la velocidad a la que avanza la inteligencia artificial no hay duda de que va a terminar por llevarnos a sitios que, por ahora, solo hemos visto en películas.