O Hoax da Momo e o YouTube Kids

O Hoax da Momo e o YouTube Kids

Quem convive com crianças e tem alguma na família recebeu a mensagem em todos os lugares na última semana: a criatura momo está aparecendo no meio de vídeos do YouTube Kids e incentivando crianças a cometer suicídio.

A momo já é velha conhecida da internet. Na verdade é uma escultura japonesa que no inicio de 2018 foi usada para ilustrar um jogo viral em que pessoas eram incentivadas a falar com um número desconhecido no Whatsapp. O rumor era que assim como outras ondas que apareceram na época como o "Baleia Azul", o jogo levaria o participante ao suicídio.

A criatura volta novamente essa semana sendo compartilhada incessantemente por pais em um vídeo que mostra a Momo aparecendo entre desenhos infantis. A questão é: 1) esse material é compartilhado via Whatsapp 2) o YouTube não encontrou no site indícios dele estar hospedado no YouTube Kids 3) tudo leva a crer que é um hoax criado por trolls.

Locais em volume de busca do termo "Momo" na última semana

Não foi fornecido texto alternativo para esta imagem

Fonte: Google Trends

Os hoaxs, ou "pegadinhas" para enganar pessoas na internet, são criadas pelos Trolls, a galera que só quer irritar por irritar e criar conteúdo para "trollar". A geração Hue Br está ai para provar a fama do brasileiro de apenas fazer idiotices para aparecer. A história da Momo parece ser um caso desses.

O YouTube se envolveu em algumas crises ao longo dos anos, em algumas delas envolvendo conteúdos infantis. Casos como o empresas que tiraram o patrocínio a plataforma ao terem anúncios veiculados em vídeos extremistas ou o uso de personagens infantis para conteúdo adulto, mas tenta combater a todo custo já que a questão de vídeos é seu modelo de negócio.

O modelo de negócios do Google é o de maximizar a habilidade de distribuir conteúdos comerciais personalizados para audiências massivas, ou seja, aproveitar ao máximo seu alcance para oferecer publicidade personalizada a partir do perfil do usuário. Para isso, a plataforma desenvolveu diversas ferramentas e começou a dividir seus conteúdos.

O YouTube tem mais de 1,5 bilhão de usuários mensais ativos mensais e 1,9 bilhão de horas sendo inseridas na sua plataforma todos os dias. Para monitorar esse conteúdo em tempo real, a plataforma tem uma série de ferramentas automatizadas que tira do ar e notifica ameaças automaticamente. O Content ID, por exemplo, escaneia o material em tempo real, identifica conteúdo e correlaciona com direitos autorais e oferece algumas opções ao detentor do direito autoral. Algumas gravadoras, por exemplo, por default decidem tirar os vídeos do ar, então dependendo do conteúdo, um vídeo nem mesmo é carregado quando um usuário envia.

Além disso, algumas plataformas passam por um outro processo pesado. O YouTube Kids, por exemplo, além do escaneamento automático, ainda passa por curadoria humana, que analisa o conteúdo e toma as decisões a partir do manual de operações da Google. Como bem explica a gerente de comunicação para a crescer, “Além da análise automática, que existe também no YouTube convencional, no YouTube Kids, contamos com a curadoria humana feita por mais de 10 mil pessoas. Elas, basicamente, pegam o conteúdo que está disponível no YouTube e filtram os conteúdos infantis, certificando-se que, de fato, são adequados para esse público. Só então aquele conteúdo fica disponível para o Kids". 

Hoje procurando no YouTube - e não no YouTube Kids - é possível encontrar muito material sobre a Momo, principalmente de pessoas comentando a história atrás de cliques. A Google decidiu desmonetizar qualquer vídeo que fale a respeito para evitar que mais gente entrasse na onda. Mas o problema dessa história toda não é realmente esse.

Busca sobre o termo "Momo" no Google na última semana

Não foi fornecido texto alternativo para esta imagem

Busca do Termo "Momo" no YouTube na última semana

Não foi fornecido texto alternativo para esta imagem

Fonte: Google Trends

Quando comecei minha pesquisa de mestrado percebi que queria falar de compartilhamento e engajamento e duas plataformas me chamavam a atenção: YouTube e Whatsapp. Pelo bem da pesquisa - como a facilidade de conseguir dados primários, por exemplo - acabei escolhendo a primeira plataforma. O serviço do Facebook me fascinou por vários motivos: sua adesão rápida, sua facilidade de comunicação "gratuita" e seu potencial de comunicação. 

Mas para além das suas qualidades, existe um submundo no Whatsapp que deveríamos discutir mais: seu conteúdo encriptado facilita a criação e propagação de hoax como a Momo, as fake news que assolaram o Brasil nos últimos anos e a propagação de mídias que não chegam a televisão e internet por meios oficiais, incluídas aqui vídeos de massacres que aconteceram nos últimos dias.

Já que a ameaça não vem do YouTube, o contexto é claro: hoax como a Momo precisam de público. Então assim como nas cartilhas de ações para combater fake news que alguns veículos criaram, fica o conselho: não compartilhem.

PS: essa matéria da BBC é ótima e fala sobre o tema. Além disso, discute um pouco alguns temas que estão preocupando os pais: como explicar o que é e como discutir segurança de navegação e limitação de tempo de tela. Vale a pena.

Entre para ver ou adicionar um comentário

Outros artigos de Karen Araujo

Outras pessoas também visualizaram

Conferir tópicos