Ya hemos hablado en otras ocasiones de cómo Facebook está impulsando el uso de su capacidad de transmitir vídeo para hacerse sitio en este terreno. Sin embargo, el asesinato retransmitido en directo desde la plataforma que se produjo en el mes de abril ha evidenciado que ese propósito no resulta sencillo de alcanzar sin encontrar un método efectivo para lidiar con transmisiones de este tipo.

En Bloomberg, la analista Caroline Hyde señaló el escaso análisis que se realiza en Facebook acerca de las implicaciones y usos que se pueden dar a sus productos: primero, se piensa en las implicaciones «sociales»; o sea, en cómo puede ayudar a que se conecte mejor entre amigos y familias. Solo después es cuando se paran a pensar en otros usos que se pueden dar al producto y cuáles son sus implicaciones. Y es que en el caso de «Facebook Live», si bien es cierto que se puede usar para mostrarle a una abuela los primeros pasos de sus nietos, también se puede emplear para mostrar contenido inapropiado, por usar el eufemismo habitual.

El problema que tiene Facebook ahora entre manos es que resulta muy complicado para la compañía distinguir entre los tipos de contenidos que se emiten para decidir si este es o no inapropiado. Y si bien en el caso del sexo puede ser hasta relativamente fácil gracias al reconocimiento de imágenes, en casos como el del asesinato mencionado no resulta tan sencillo.

Actualmente, como explica Hyde, se está usando inteligencia artificial para este reconocimiento, pero por medio de ella no es posible determinar con facilidad si un contenido es, por ejemplo, violento. En la empresa tienen a gente entrenando al algoritmo para que funcione con eficacia, pero al parecer el recurso del que se echa más mano es el de los usuarios.

La forma en la que Facebook dictamina que un contenido es inapropiado es por medio de las valoraciones, o mejor dicho denuncias, de los usuarios que primero lo ven. Esto es complementado con personal que se dedica a monitorizar las 24 horas del día los vídeos para determinar si debería o no estar en la plataforma. Pero claro, esto es un proceso que lleva tiempo, por lo que la única manera de acelerarlo es acumular la suficiente información acerca de contenido de vídeo para que las máquinas puedan aprender a identificar lo que no es apropiado.

Aparte del increíble volumen de información que supone esto, no olvidemos que tampoco es garantía de nada. No solamente de que se pueda excluir contenido inapropiado, sino también de que no se produzcan falsos positivos como han ocurrido anteriormente y ocurren de tanto en tanto en cualquier plataforma de este tipo.

Pero además de preocupar al mismo Facebook por ser algo que afecta a sus usuarios y a la reputación de su servicio, también le preocupa por otro lado: por los anunciantes, a quienes también inquieta que se den retransmisiones inapropiadas.

Y es que es cuestión de tiempo que se empiece a incluir con frecuencia publicidad en los vídeos en directo, algo que seguramente se tratará de hacer por medio de alguna tecnología de contextualización. Al hacerlo, Facebook enfrentará los mismos problemas que ya ha tenido Google con YouTube, de manera que el filtrado de las transmisiones necesita contar con una tecnología lo suficientemente refinada para, si no ahorrarse quebraderos de cabeza, por lo menos minimizarlos.

Para que a Facebook le salga rentable mantener el vídeo presente en la plataforma y hacerlo crecer, la monetización del mismo se hace obligatoria. Sin duda, en Menlo Park han de estar trabajando intensamente para conseguir los desarrollos más efectivos para que esa identificación de contenidos funcione con eficiencia. Pero por el momento, al parecer todo seguirá girando en torno a la identificación hecha por humanos. Sí, se ha avanzado mucho, pero parece que no lo suficiente para ciertas cosas.