Ex moderadora demanda a Facebook por los traumas derivados de la visión de contenidos violentos

Registrado
1 Oct 2017
Mensajes
25.494
Calificaciones
66.932
Ubicación
Almonte, Huelva
Ex moderadora demanda a Facebook por los traumas derivados de la visión de contenidos violentos

La trabajadora habla de “miles de vídeos e imágenes de por**grafía infantil, decapitaciones y bestialidades de todo tipo”

LV_20140204_LV_FOTOS_D_54400848840-kPYB-U452066287005IAB-992x558@LaVanguardia-Web.jpg

El duro trabajo de un moderador de Facebook (.)

ALBERTO BARBIERI, BARCELONA
01/10/2018 06:30 | Actualizado a 01/10/2018 07:56

Muchos de los contenidos que los usuarios de todo el mundo publican en Facebook son bloqueados antes de salir a la luz por un grupo, muy numeroso, de moderadores. Estos ‘oficiales de censura’ se encargan, no sin errores y contradicciones, de eliminar todo lo que de alguna manera podría ofender o causar daño al resto de los usuarios, o que simplemente no se alinea con las normas de la comunidad.

Además de los algoritmos, por lo tanto, hay personas. En concreto, casi 20 mil moderadores que se enfrentan cada día a la visión de contenido realmente desagradable. Se trata de mensajes, fotos o vídeos que incitan al odio y a la violencia, actos sexuales, contenidos que expresan crueldad e insensibilidad, incitación al su***dio y al autolesión, por**grafía infantil, bulling, acoso y demás muestras de la naturaleza humana.

img_fmartinez_20160821-183639_imagenes_lv_efe_abaphotostwo274877-kPYB--656x410@LaVanguardia-Web.jpg

Fotograma de un vídeo de propaganda de 'Dash' o 'ISIS' (Balkis Press / EFE)

Solo en los primeros tres meses de 2018, se eliminaron de la plataforma hasta 21 millones de contenidos pornográficos,tres millones y medio de posts violentos o peligrosos y dos millones y medio de publicaciones etiquetadas como ‘discurso de odio’. El algoritmo es efectivo en casi todos los casos relacionados con el s*x*, pero lo es mucho menos con la violencia, donde el ojo humano debe intervenir.

Los moderadores de Facebook, cuyo trabajo y distribución geográfica están rodeados de un cierto misterio, están sujetos a una especie de ‘Tortura Ludovico’. Como el protagonista de ‘La Naranja Mecánica’ son obligados a mirar horas y horas de escenas de violencia espantosa. Las consecuencias van desde el trauma psicológico al trastorno de estrés postraumático, con reacciones comparables a las de los veteranos del ejercito. El año pasado, elWall Street Journal definió el trabajo de los moderadores como el “peor en ámbito tecnológico”.

Ahora, una ex empleada del grupo, Selena Scola, ha decidido demandar a la red social por este motivo. La ex moderadora afirma que Facebook no proporciona suficiente y adecuada asistencia psicológica a quienes pasan horas evaluando contenido violento: mutilaciones, asesinatos, suicidios, violaciones y abusos de cualquier tipo. En la demanda se habla concretamente de un “bombardeo de miles de vídeos, imágenes y streaming de por**grafía infantil, decapitaciones y bestialidades de todo tipo”.

Facebook está ignorando su deber de proporcionar un trabajo seguro - dijo Korey Nelson, el abogado de Scola, a quien le gustaría convertir el caso en una demanda colectiva - por el contrario, está construyendo un sistema de subcontratados traumatizados por lo que están obligados a hacer en el trabajo”. Por su parte, Facebook asegura proporcionar apoyo psicológico por mano de profesionales especializados. Evidentemente, este tratamiento no es suficiente o no se promueve suficientemente entre el personal.

https://www.lavanguardia.com/tecnologia/20181001/452066287005/facebook-moderadora-denuncia.html
 
Back