Close
    Search Search

    Exempleado de Facebook revela el día a día de los moderadores de contenido

      Trabajar en Facebook es realmente un sueño para muchas personas. Atraídos por el ambiente diferenciado de una gran empresa, muchos jóvenes postulan a las vacantes cuando se presentan. Sin embargo, puede ser que no todo sea tan maravilloso como imaginamos. Un ejemplo de ello, un joven relató en un artículo de la BBC sobre su rutina como revisor de denuncias sobre violencia y odio a través de la plataforma.

      El chico, que usa el nombre ficticio de Sérgio, dice que él y otros 500 compañeros de todo el mundo tenían un día a día similar al de un call center abusivo, es decir, en su oficina cada uno de ellos se encargaba de evaluar 3,5 mil fotos, videos y textos reportados diariamente, con una decisión promedio cada 8,5 segundos. "Vi videos en vivo para ver si alguien se suicidaría", le dice al informe de la BBC.



      Exempleado de Facebook revela el día a día de los moderadores de contenido

      Ex empleado de Facebook revela la vida diaria de los moderadores de contenido.

      • Las 10 redes sociales más grandes en 2022
      • emoticonos en el teclado
      Sérgio, al igual que sus compañeros de trabajo, tuvo que memorizar una serie de reglas sobre las publicaciones, ya que cada país trata de manera diferente los temas políticos y culturales. Todo se ejercitó constantemente sobre posibles contenidos de pedofilia, desnudez, necrofilia, suicidios, asesinatos, acoso, amenazas, armas, drogas y violencia animal, publicados en 10 idiomas.

      Todo el proceso se llevó a cabo en un lugar donde los teléfonos celulares estaban prohibidos y los descansos para comer y las visitas al baño estaban controlados, además de altas multas y amenazas de juicios en caso de fuga de información. "Era como un gran centro de llamadas, sin teléfonos. Estábamos allí para atender al cliente: en este caso, Facebook y todos sus usuarios".



      Los revisores usan una línea de tiempo alternativa de Facebook para poder revisar las quejas, todo con solo la publicación y el nombre del autor, sin tener acceso al perfil completo.

      El material fue borrado, ignorado o incluso enviado para evaluación de superiores, especialmente en casos de pedofilia y suicidio, ya que estos casos involucran investigación por parte de las autoridades.

      Sin embargo, uno de los puntos diferenciadores fue que los empleados entrenaron a las máquinas para que fueran cada vez más ágiles en el proceso de reconocimiento de contenidos violentos o de odio. “Cuanto más enseñábamos el algoritmo, menos necesarios nos volvíamos. Nuestro trabajo era dejar obsoleto nuestro trabajo”, le dice a la BBC.

      "Ver contenido fuerte todos los días te hace perder la sensibilidad a ciertas cosas. Especialmente en relación con la desnudez: había tantos selfies de personas desnudas, primeros planos de penes, vaginas y pezones, que la pornografía perdió su diversión", le dijo a la BBC. .


      Facebook, contactado por la BBC, dijo que "no comentará" tales informes. Cabe mencionar que, recientemente, la red social anunció la contratación de 10 nuevos empleados para desempeñar el mismo rol de Sérgio.


      Añade un comentario de Exempleado de Facebook revela el día a día de los moderadores de contenido
      ¡Comentario enviado con éxito! Lo revisaremos en las próximas horas.

      End of content

      No more pages to load