Imágenes de horror: ¿Quién decide qué se ve en línea?

David Haines family photo.

Foto familiar de David Haines.

Escrito por Sam Gregory, Director de Programa en WITNESS. Este artículo se publicó originalmente en el blog de WITNESS.

En el último mes, muchas personas en Estados Unidos y en todo el mundo se han visto expuestas a videos que muestran terribles actos de violencia, como en particular las muertes de dos periodistas, James Foley y Steven Sotloff, el trabajador humanitario británico David Haines a manos del EI. Aunque tristemente su violencia gráfica no es excepcional para quienes ven la aparición en Twitter de filmaciones relativas a derechos humanos y crisis, este material ha adquirido significativa relevancia en los medios convencionales y ha encendido un importante debate sobre roles y responsabilidades en relación a imágenes descriptivas y enormes violaciones de derechos humanos.

En respuesta a la circulación de los videos creados por el EI, plataformas de medios sociales respondieron con el retiro del material, y los ciudadanos, incluidos familiares de los que fueron asesinados, iniciaron movimientos impulsados por etiquetas de Twitter y llamados personales en torno a su propia decisión de no ver los videos y de animar a otros a no verlos.

[Imagen destacada del usuario de Twitter Sajad Riyad – parte de una iniciativa de simpatizantes y colegas del trabajador humanitario británico David Haines para hacer circular imágenes suyas «como a él le gustaría que lo recordáramos» en lugar del video del EI con su asesinato, que se convirtió en noticia internacional, septiembre de 2014.]

Dentro de la comunidad de personas con la que WITNESS trabaja, esas noticias señalan hacia preguntas críticas para las plataformas comerciales de medios sociales, y con las que debemos participar como ciudadanos, usuarios de medios sociales y consumidores de información e imágenes.

Parámetros coherentes de lo que se queda en plataformas comerciales

Aunque a menudo percibimos espacios como YouTube y Facebook como espacios públicos libres y abiertos, no lo son. En la analogía de Ethan Zuckerman, son más cercanos a centros comerciales, en su mayor parte impulsados tanto por mandatos comerciales subyacentes cuanto por el rol del espacio público. Están gobernados por pautas relativamente amplias sobre qué contenido es o no aceptable (lo que le permite una buena dosis de discrecionalidad a las plataformas), y diferentes percepciones de los espectadores e internas sobre cuál es su audiencia y cuáles sus objetivos.

Aunque no es lo ideal que las decisiones sobre libertad de expresión las tomen las plataformas comerciales, dado el rol que estas plataformas tienen en la circulación de información crítica, WITNESS defiende que el contenido polémico se pueda compartir y que permanezca en estas plataformas, y con tanta claridad y coherencia como sea posible sobre cuándo y por qué se retira el material.

YouTube, por ejemplo, por lo general permite material gráfico solamente en contextos donde se enmarca como evidencia de violaciones de derechos, más que una glorificación o validación del acto. Así, en el caso del material de James Foley, YouTube se refirió a un reportero de Slate por sus políticas de contenido en relación con violencia gratuita, incitación a la violencia y discurso de odio:

«YouTube has clear policies that prohibit content like gratuitous violence, hate speech, and incitement to commit violent acts, and we remove videos violating these policies when flagged by our users,” a YouTube spokesperson told me over email. “We also terminate any account registered by a member of a designated Foreign Terrorist Organization and used in an official capacity to further its interests.»

«YouTube tiene políticas claras que prohíben contenido como violencia gratuita, discurso de odio e incitación a cometer actos violentos, y retiramos los videos que violan estas políticas cuando nuestros usuarios lo marcan así”, me dijo un portavoz de YouTube por correo electrónico. “También eliminamos toda cuenta registrada por un miembro de una organización terrorista extranjera específica y usada oficialmente para promover sus intereses».

Mantener estos enfoques de manera coherente, independientemente de quién está involucrado en las violaciones, ayudará a establecer un parámetro más transparente.

¿Aferrándose a evidencia crítica?

Aún con parámetros claros, es el caso que algún material en YouTube y en otros espacios de medios sociales que tienen valor importante para la justicia y la responsabilidad terminará siendo retirado -ya sea porque no sea considerado como evidencia, o debido a criterios de decisión humanos sobre si el material está dentro de las pautas de la empresa. El material que muestra violaciones de derechos humanos a menudo es muy gráfico e incómodo, a veces revictimiza y con frecuencia está sujeto a ser retirado de manera arbitraria o correcta, ya sea por los administradores o por ataques concertados de actores externos para que sean retirados (un problema relativamente común en muchos espacios de medios sociales). Cuando analizamos las listas de reproducción de videos ciudadanos que se han difundido en el Canal de Derechos Humanos (alojado en YouTube), encontramos que de los casi 6,000 videos que muestran violaciones de derechos que hemos compartido, casi 5% ya no están. Esto podría significar que fueron borrados, retirados o se hicieron privados.

VideoRemovedbyYouTube

Este video ha sido retirado por YouTube. Lo lamentamos.

Una idea que ha estado circulando es la de un «casillero de evidencia» digital. El «casillero de evidencia» aseguraría que contenidos de medios ciudadanos poderosos pero ofensivos relacionados con derechos humanos se descarguen y se guarden. Esto se haría de una manera que preserve la metadata y otra importante información del video, para que se pueda usar en procesos e investigaciones futuros por parte de ONG y participantes de derechos humanos, aunque se borren rápidamente en una plataforma social.

Se agrega a las conversaciones cómo habilitar mejores archivos e instrumentos dedicados a los derechos humanos que permitan que se comparta de manera segura material peligroso o comprometedor. La idea detrás de estas herramientas (que incluye proyectos como nuestra aplicación InformaCam) es que permitirían a un creador enviar contenido directo a investigadores y grupos de derechos humanos.

Circulación y recirculación de material grabado por los perpetradores

En los últimos años, grupos de derechos humanos y periodistas han lidiado con un creciente flujo de imágenes descriptivas -algunas más generalizadas que las que hemos visto recientemente- a las que pueden acceder como documentación, como el inicio de una investigación o el posible contenido de una noticia.

El material hecho por el perpetrador forma una parte significativa de este contenido, pero también ha formado y formará una parte significativa de campañas de derechos humanos, procesos penales internacionales e investigaciones de noticias. Las imágenes de brutalidad policial grabadas por la propia policía ha incitado campañas públicas en muchos países y el tipo de material grabado por grupos como el EI puede usarse algún día como evidencia en juicios de justicia penal internacional. Históricamente, en juicios internacionales, a menudo ha sucedido que las declaraciones más incriminatorias las hacen los propios perpetradores que se vinculan a los delitos. Aunque, por supuesto, con la circulación de estas imágenes podemos facilitar el juego a las necesidades de propaganda de violaciones de derechos humanos, podemos justificar lo que ha surgido en esos ambientes como un mercado comercial de imágenes terribles de violaciones, y podemos volver a victimizar y volver a violar por tercera vez la dignidad de personas que ya han pasado por abuso directo, y la humillante violencia de tener esto captado en una cámara.

Hay un rol que las plataformas, medios de comunicación y ciudadanos preocupados podemos tener acá. Hemos defendido que más medios sociales y plataformas de difusión de videos incorporen herramientas para anonimato visual, como la función de hacer borroso  contenido en YouTube. Esto permite que las personas compartan documentación de primera mano de violaciones de derechos humanos y hasta cierto punto permite proteger la identidad de víctimas y sobrevivientes. Una herramienta como la función de borronear la cara o nuestra aplicación de ObscuraCam también puede permitir a los activistas a volver a difundir una copia de material grabado por el perpetrador mientras se minimiza la revictimización. La idea acá es que al recircular estas imágenes creamos mayor perjuicio a alguien que ya ha sido victimizado y a quienes están involucrados emocionalmente, como la familia de la víctima.

Esto nos tocó de cerca el año pasado con la difusión de imágenes de brutalidad hacia personas LGBT en Rusia, y la incesante recirculación de imágenes que mostraban esta violencia por parte de medios de comunicación y ciudadanos. En este caso, sostuvimos fuertemente que activistas y medios de comunicación debían, como mínimo, hacer borrosas los rostros de las víctimas, y reconocer su propio rol en crear precisamente el efecto que los autores de esos delitos buscaban – deshumanizar y humillar a sus víctimas.

Incorporar dignidad y respeto en la conversación

En algunas circunstancias, también podemos tomar decisiones conscientes de no ver y no difundir. Asuntos mayores de dignidad y respeto por el prójimo subyacen en las preguntas de difundir determinados contenidos y cómo y cuándo hacerlo. WITNESS cree en el derecho a la libre expresión, que se aplica por igual en línea y fuera de línea. Pero también debemos considerar valores en torno a la protección de personas que ya han enfrentado la horrible indignidad y violencia que los violadores de derechos humanos han impuesto sobre ellos; y la ética de aumentar la visibilidad de esas imágenes.

¿Hablas el discurso de las flores?Campaña para combatir el discurso de odio hacia los musulmanes en Birmania. Más sobre la campaña https://www.facebook.com/supportflowerspeech Imagen (c) Kenneth Wong.

Estas cuestiones éticas se resuelven mejor en una conversación cultural para establecer un consenso más amplio sobre cuándo es aceptable compartir imágenes que comprometen fuertemente la humanidad básica de otras personas; y cuando reconocemos que faltan esos valores básicos de derechos humanos de privacidad, dignidad o consentimiento. Y también son parte de una conversación que podemos tener activamente sobre el contradiscurso -cómo usamos nuestra capacidad para participar en conversaciones en línea para desafiar la degradación, el discurso o las imágenes en línea cargadas de violencia o de odio, como vimos que mucha gente hizo al inicio de la amplia difusión de imágenes del EI.

Hay un movimiento internacional emergente que se centra en el poder del discurso positivo para contrarrestar la violencia y el discurso de odio -encarnado en grupos como el movimiento Panzagar en Birmania, que contrarresta la violenta crítica e imágenes contra los musulmanes en Facebook y en el discurso público en ese país, o de manera menos coordinada, las elecciones que hacemos para recircular imágenes positivas de personas cuyas vidas se han perdido por violaciones de derechos humanos, como la imagen de David Haines con su familia que destacamos al inicio de este artículo.

¿Cuándo necesitamos videos? ¿Cuándo no deberían importar las imágenes?

También debemos reconocer la necesidad de una conversación pública sobre qué imágenes y qué tipos de imágenes mueven a la acción, cuándo «necesitamos» ver imágenes, y qué pasa cuando las situaciones difíciles no tienen imágenes. A pesar de que WITNESS es una organización que se centra en el uso eficiente de imágenes conmovedoras para promover los derechos humanos, ha sido nuestra constante preocupación el desequilibrio de imágenes de algunos contextos (y tipos de situaciones de derechos humanos) en un mundo que se basa cada vez más en las imágenes visuales.

Hay algunas imágenes circulando en línea de la violencia en la República Centroafricana o la República Democrática del Congo rural -¿debería esto hacer que las crisis en estos países sea menos digna de aparecer en las noticias o susceptible de procesamiento que la incesantemente documentada violencia de Siria? Y, en asuntos de derechos humanos que son sistémicos, por ejemplo, la discriminación generalizada en términos de acceso a la educación para los romaníes en Europa, es difícil encontrar una recapitulación visual o vistazo. En un asunto en curso como la violencia doméstica contra la mujer, es raro que tengamos una imagen para cristalizar un asunto en la conciencia pública que ha emergido en semanas recientes en Estados Unidos, con el video que muestra a un destacado jugador de fútbol americano golpeando a su prometida en un ascensor y sacándola a rastras.

Así que por mucho que celebremos las posibilidades de asignar responsabilidades en un mundo con «cámaras por todas partes», también debemos reconocer los peligros de lo que esto nos lleva a ver, compartir, priorizar y también qué es lo que se excluye.

Inicia la conversación

Autores, por favor Conectarse »

Guías

  • Por favor, trata a los demás con respeto. No se aprobarán los comentarios que contengan ofensas, groserías y ataque personales.