Article
People Strategy

Um salve aos Gatekeepers de mídia social

Hoje, quase 3,5 bilhões de pessoas são usuários ativos de mídia social, gastando mais de 2 horas por dia e gerando um enorme conteúdo digital. Nosso atual caso de amor com as mídias sociais está se acelerando a um ritmo nunca visto antes.

De acordo com o relatório Data Never Sleeps do Domo, esses números são gerados a cada minuto do dia:

· 390.030 de aplicativos baixados

· 4.500.000 vídeos do YouTube visualizados

· 511.200 tweets

277.777 histórias do Instagram

Muitos desses vídeos, fotos e tweets são fluidos, polimorfos, com conteúdo errático, e é muito difícil separar o trigo do joio.

A mídia social é parte integrante da vida humana hoje: mantém as pessoas conectadas, amplia sua comunidade, torna-as mais conscientes e é uma fonte formidável de informação e educação. Mas, como qualquer invenção poderosa na era digital, a mídia social também é usada para espalhar notícias falsas, difamar indivíduos, difundir discurso de ódio, promover terrorismo e muitas vezes fazer lavagem cerebral na audiência para cometer fanatismo religioso e crimes de ódio.

A quantidade de dados gerados pelo usuário compartilhada é de natureza tão construtiva quanto destrutiva, e é por isso que a mídia social precisa ter um sistema de gatekeeping confiável e eficiente para proteger os usuários.

Mas como podemos controlar 2,5 quintilhões de bytes de dados compartilhados por 3,5 bilhões de usuários em todo o mundo?

Mesclando tecnologia de ponta e inteligência humana podemos isolar o risco on-line por meio da moderação de conteúdo.

Quando se trata de conteúdo ilegal, criminoso e vicioso, facilmente reconhecível, a Inteligência Artificial (IA) é a escolha perfeita. Mas, como sempre digo, por mais avançada que seja a tecnologia, faltará a ela o lado humano. A IA não entende o QE humano, a cultura e o contexto. Sendo assim, após a triagem inicial feita pela AI através de programas de moderação de conteúdo, os gatekeepers de mídia social precisam verificar e decidir se o conteúdo é correto, legal e aceitável, ou não.

Controlando as feras trolladoras que são as mídias sociais.

O papel dos moderadores de conteúdo – os Gatekeepers das Mídias Sociais – é difícil; eles têm que revisar grandes quantidades de dados e estão expostos a conteúdo perturbador, chocante e violento. Eles são como os policiais de rua e os profissionais de serviços de emergência: profundamente necessários, mas poucas pessoas estão prontas e capazes para realizar seu trabalho. É preciso ter um grande senso de ética, valorizar o serviço para a comunidade e ser resiliente para lidar com o estresse que acompanha essa missão.

Hoje, as empresas de mídia social e as de moderação de conteúdo estão extremamente conscientes da importância de proteger os usuários, e têm políticas para a melhor orientação dos seus Gatekeepers de Mídia Social, como por exemplo:

  • Seleção dos Gatekeepers de acordo com um perfil psicológico estável e resiliente,
  • Redução do horário de trabalho efetivo, alinhada às práticas trabalhistas atuais;
  • Apoio psicológico permanente;
  • Ambiente de trabalho que contribua para o bem-estar destes profissionais;
  • Maior remuneração do que os trabalhos tradicionais de atendimento ao cliente.

O trabalho de Gatekeepers de Mídia Social definitivamente não é fácil, mas é uma função essencial no ecossistema de mídia social em evolução. Tenho certeza de que muitos policiais, pessoal de resgate de emergência, veteranos e agentes de segurança gostariam de obter as mesmas condições de trabalho e cuidados prestados aos seus homólogos do mundo virtual.

E para todas as equipes de Gatekeepers de Mídia Social ao redor do mundo, UM GRANDE OBRIGADO PELO SEU SERVIÇO!

Clique aqui para ver o texto original em inglês.