YouTube explica como conteúdo nocivo é removido da plataforma

0
48

Para permitir que a plataforma do YouTube continue aberta a todos, a gigante de Mountain View mantém um esforço contínuo de limpeza contra vídeos que tenham conteúdos nocivos e os remove assim que são detectados.

“O conteúdo prejudicial é removido desde o início do YouTube, mas o investimento vem acelerando nos últimos anos. Graças a esse trabalho contínuo, nos últimos 18 meses, as visitas a vídeos que foram posteriormente eliminados por violar as políticas da plataforma foram reduzidas em 80%”, diz a empresa.


YouTube diz já ter removido mais de 100 mil vídeos com discurso de ódio, encerrado 17 mil canais e 500 milhões de comentários.

Desenvolvimento de políticas para uma plataforma global

Antes de remover qualquer conteúdo que viole as políticas do YouTube, o Google explica que é preciso garantir que a linha que separa o que é removido do que é permitido esteja no lugar certo, com o objetivo de preservar a liberdade de expressão e a comunidade. 

  • Desde 2018, introduzimos dezenas de atualizações em nossos padrões: muitos deles são pequenos esclarecimentos, mas outros são mais profundos.
  • Nossa atualização sobre discurso de ódio representou uma mudança fundamental em nossas políticas. Passamos vários meses desenvolvendo essa política e trabalhando com nossas equipes para criar as ferramentas e estabelecer o treinamento necessário para garantir a conformidade.
  • Em abril de 2019, também anunciamos que estamos trabalhando para atualizar nossa política de assédio, incluindo o assédio entre criadores. Compartilharemos nosso progresso nessa questão nos próximos meses.

Uso da tecnologia para detectar conteúdo nocivo

  • Em 2017, aumentamos o uso de nossa tecnologia de aprendizado de máquina para ajudar a detectar conteúdo que potencialmente viola nossas políticas e enviá-las para análise por uma equipe humana. 
  • Mais de 87% dos 9 milhões de vídeos excluídos no segundo trimestre de 2019 foram detectados pela primeira vez por nossos sistemas automáticos.
  • Estamos investindo significativamente em nossos sistemas de detecção automática, e nossas equipes de engenheiros continuam atualizando e aprimorando-os mês a mês. Por exemplo, uma atualização em nosso sistema de detecção de spam no segundo trimestre de 2019 levou a um aumento de 50% nos canais excluídos por violar nossas políticas de spam.

Remova o conteúdo antes que ele se torne popular

  • As melhorias em nossos sistemas automáticos nos ajudaram a detectar e revisar o conteúdo antes de serem relatados pela nossa comunidade, o que permitiu que, no segundo trimestre de 2019, mais de 80% dos vídeos relatados fossem excluídos automaticamente antes de terem uma única visualização.
  • Estamos determinados a continuar reduzindo a exposição a vídeos que violam nossas políticas. É por isso que, no Google, temos mais de 10.000 pessoas encarregadas de detectar, revisar e excluir conteúdo que viola nossas regras. 

Comente!