Batería de normas de Facebook para regular contenidos relacionados con el final de la vida

Agencia AFP

En Facebook, los contenidos vinculados con el suicidio asistido, el final de la vida o la automutilación, están sometidos a una serie de normas para conciliar seguridad de los usuarios y libertad de expresión, como refleja el caso del francés Alain Cocq.

Este hombre de 57 años, aquejado de una enfermedad incurable, y que reclama un final de vida “digno”, anunció en la noche del viernes al sábado que cesaba cualquier tratamiento y se dejaba morir en directo en Facebook.

Pero la plataforma anunció el sábado que bloqueaba la difusión del video de Cocq.

“Aunque respetamos su decisión de querer atraer la atención sobre esta compleja cuestión, en base a los consejos de expertos hemos tomado medidas para impedir la difusión en directo en la cuenta de Alain, pues nuestras normas no permiten la representación de intentos de suicidio”, declaró un portavoz de Facebook.

El equilibrio es delicado para la red social que cuenta con 1,800 millones de usuarios, y es a veces acusada de no poner los medios suficientes para evitar la difusión de contenidos violentos o chocantes.

Estas normas se han reforzado con el tiempo, tras una serie de casos que generaron escándalo, como el fallecimiento en el 2017 en Reino Unido de Molly Russell, una adolescente de 14 años que se suicidó tras haber visionado contenidos relativos a la automutilación y al suicidio en Instagram, filial de Facebook.

Facebook cuenta con reglas muy precisas: si bien no prevén disposiciones específicas sobre el final de la vida, son en cambio muy estrictos en cuanto a los contenidos que pueden parecerse a una promoción del suicidio o de la automutilación.

“Con el objetivo de promover el entorno de seguridad en Facebook, suprimimos cualquier contenido que aliente el suicidio o la automutilación, incluyendo algunas imágenes explícitas que según los expertos podrían incitar a ciertas personas a adoptar un comportamiento similar”, advierte la red en sus normas.

No obstante, estas mismas regulaciones autorizan “las fotos o los videos representando a una persona que ha cometido un suicido en un contexto de actualidades”, así como “fotos o videos que representan a una persona que ha sido objeto de suicidio asistido o de eutanasia en un contexto médico”.

En estos casos se limita el acceso a los más de 18 años, y se incluye un mensaje de advertencia.

Además la red puede flexibilizar sus propias normas si considera que los contenidos no autorizados son de interés público.

Además, la red deja a veces en línea contenidos controvertidos, el tiempo necesario para prestar asistencia a quienes los publican, si ello permite salvar vidas.

“Se nos ha informado por parte de expertos que no deberíamos suprimir videos de automutilación en directo mientras los familiares o afines a la víctima puedan aún intervenir”, indica Facebook, a modo de ejemplo.