O Hoax da Momo e o YouTube Kids
Quem convive com crianças e tem alguma na família recebeu a mensagem em todos os lugares na última semana: a criatura momo está aparecendo no meio de vídeos do YouTube Kids e incentivando crianças a cometer suicídio.
A momo já é velha conhecida da internet. Na verdade é uma escultura japonesa que no inicio de 2018 foi usada para ilustrar um jogo viral em que pessoas eram incentivadas a falar com um número desconhecido no Whatsapp. O rumor era que assim como outras ondas que apareceram na época como o "Baleia Azul", o jogo levaria o participante ao suicídio.
A criatura volta novamente essa semana sendo compartilhada incessantemente por pais em um vídeo que mostra a Momo aparecendo entre desenhos infantis. A questão é: 1) esse material é compartilhado via Whatsapp 2) o YouTube não encontrou no site indícios dele estar hospedado no YouTube Kids 3) tudo leva a crer que é um hoax criado por trolls.
Locais em volume de busca do termo "Momo" na última semana
Fonte: Google Trends
Os hoaxs, ou "pegadinhas" para enganar pessoas na internet, são criadas pelos Trolls, a galera que só quer irritar por irritar e criar conteúdo para "trollar". A geração Hue Br está ai para provar a fama do brasileiro de apenas fazer idiotices para aparecer. A história da Momo parece ser um caso desses.
O YouTube se envolveu em algumas crises ao longo dos anos, em algumas delas envolvendo conteúdos infantis. Casos como o empresas que tiraram o patrocínio a plataforma ao terem anúncios veiculados em vídeos extremistas ou o uso de personagens infantis para conteúdo adulto, mas tenta combater a todo custo já que a questão de vídeos é seu modelo de negócio.
O modelo de negócios do Google é o de maximizar a habilidade de distribuir conteúdos comerciais personalizados para audiências massivas, ou seja, aproveitar ao máximo seu alcance para oferecer publicidade personalizada a partir do perfil do usuário. Para isso, a plataforma desenvolveu diversas ferramentas e começou a dividir seus conteúdos.
O YouTube tem mais de 1,5 bilhão de usuários mensais ativos mensais e 1,9 bilhão de horas sendo inseridas na sua plataforma todos os dias. Para monitorar esse conteúdo em tempo real, a plataforma tem uma série de ferramentas automatizadas que tira do ar e notifica ameaças automaticamente. O Content ID, por exemplo, escaneia o material em tempo real, identifica conteúdo e correlaciona com direitos autorais e oferece algumas opções ao detentor do direito autoral. Algumas gravadoras, por exemplo, por default decidem tirar os vídeos do ar, então dependendo do conteúdo, um vídeo nem mesmo é carregado quando um usuário envia.
Além disso, algumas plataformas passam por um outro processo pesado. O YouTube Kids, por exemplo, além do escaneamento automático, ainda passa por curadoria humana, que analisa o conteúdo e toma as decisões a partir do manual de operações da Google. Como bem explica a gerente de comunicação para a crescer, “Além da análise automática, que existe também no YouTube convencional, no YouTube Kids, contamos com a curadoria humana feita por mais de 10 mil pessoas. Elas, basicamente, pegam o conteúdo que está disponível no YouTube e filtram os conteúdos infantis, certificando-se que, de fato, são adequados para esse público. Só então aquele conteúdo fica disponível para o Kids".
Hoje procurando no YouTube - e não no YouTube Kids - é possível encontrar muito material sobre a Momo, principalmente de pessoas comentando a história atrás de cliques. A Google decidiu desmonetizar qualquer vídeo que fale a respeito para evitar que mais gente entrasse na onda. Mas o problema dessa história toda não é realmente esse.
Busca sobre o termo "Momo" no Google na última semana
Busca do Termo "Momo" no YouTube na última semana
Fonte: Google Trends
Quando comecei minha pesquisa de mestrado percebi que queria falar de compartilhamento e engajamento e duas plataformas me chamavam a atenção: YouTube e Whatsapp. Pelo bem da pesquisa - como a facilidade de conseguir dados primários, por exemplo - acabei escolhendo a primeira plataforma. O serviço do Facebook me fascinou por vários motivos: sua adesão rápida, sua facilidade de comunicação "gratuita" e seu potencial de comunicação.
Mas para além das suas qualidades, existe um submundo no Whatsapp que deveríamos discutir mais: seu conteúdo encriptado facilita a criação e propagação de hoax como a Momo, as fake news que assolaram o Brasil nos últimos anos e a propagação de mídias que não chegam a televisão e internet por meios oficiais, incluídas aqui vídeos de massacres que aconteceram nos últimos dias.
Já que a ameaça não vem do YouTube, o contexto é claro: hoax como a Momo precisam de público. Então assim como nas cartilhas de ações para combater fake news que alguns veículos criaram, fica o conselho: não compartilhem.
PS: essa matéria da BBC é ótima e fala sobre o tema. Além disso, discute um pouco alguns temas que estão preocupando os pais: como explicar o que é e como discutir segurança de navegação e limitação de tempo de tela. Vale a pena.