Por que as redes sociais podem ser responsabilizadas por conteúdo ilegal publicado por seus usuários? — Uma interpretação atualizada do Marco Civil
Em uma decisão corajosa e atenta à nossa realidade tecnológica, uma Magistrada do foro regional de Campo Grade, no Rio de Janeiro, deferiu um pedido nosso que põe em xeque a era de isenção de responsabilidade, total e absoluta, das big techs por conteúdo ilegal publicado em suas plataformas.
Em processo no qual combatemos o descaso de três grandes redes sociais com os pedidos de remoção de um vídeo, publicado em várias contas, que expunha e humilhava uma menor em situação de vulnerabilidade, a Juíza não apenas determinou que o conteúdo fosse removido, mas também que essas plataformas tomassem providências algorítmicas ativas para rastrear e remover conteúdo idêntico.
A decisão traz para um caso concreto um debate que vem ganhando corpo, qual seja, o de reinterpretação do que diz a Lei do Marco Civil da Internet, publicada em 2014, com base naquilo que a tecnologia é capaz de fazer hoje, nove anos depois. Se interpretada em sua literalidade, o que outrora visava proteger — com justiça — a liberdade de expressão, hoje se tornou um instrumento de blindagem de responsabilidade das grandes empresas de tecnologia da comunicação.
Sempre que demandadas, as redes socais se pautam por dois dispositivos do Marco Civil para pleitear a sua total isenção de responsabilidade: o artigo 19 e o seu parágrafo primeiro. Em síntese, em uma leitura combinada, eles dizem que a plataforma somente pode ser responsabilizada civilmente se deixar de cumprir determinação judicial de retirada de conteúdo do ar, acrescentando que a ordem deve vir acompanhada das URLs específicas de cada publicação.
Esta parte final das URLs talvez fizesse sentido à época da publicação da Lei, mas veremos que, atualmente, os avanços nas tecnologias de inteligência artificial permitem que as plataformas sejam mais proativas na busca e retirada de conteúdo ilegal de suas redes. E que já o fazem de forma geral quando, por exemplo, moderam conteúdo pornográfico ou violento. Veremos também que inexiste limitação técnica que impeça o combate à proliferação de publicações específicas, como um determinado vídeo. Mas antes, vamos recapitular o caso concreto, com mais algumas informações.
Trata-se de um processo visando responsabilizar civilmente três redes sociais por não terem retirado do ar um vídeo gravado ilegalmente no qual uma menor é exposta e humilhada por um agente do Estado. O agente enviou o vídeo a pelo menos uma pessoa e então ele se espalhou, vindo a ser publicado nas redes sociais por diversos perfis.
Antes mesmo de se pensar em processo, família, amigos e advogados da menor agimos extrajudicialmente pelos canais próprios dessas redes, denunciando o conteúdo ilegal — o vídeo não havia sido autorizado e, pior, mostrava o rosto e falava o nome dela, violando direito de imagem, direito a honra e direito de criança e adolescente.
Foram várias as denúncias e em todos os casos a resposta foi a mesma: “após análise constatamos que os vídeos não violam as regras da comunidade” ou a frase equivalente de cada rede.
Todas as respostas tinham ares de automatizadas e possivelmente eram. Os vídeos muito provavelmente foram analisados pelo algoritmo das redes, que concluiu não haver violação às regras das plataformas ou à Lei. Ou ao menos assim quero acreditar, porque se um humano viu o vídeo e avaliou que não houve violação, a situação é muito mais grave.
Ante a impossibilidade de uma solução extrajudicial, a família não teve outra alternativa distinta de acionar o Judiciário em defesa da menor. Em petição inicial, além da responsabilização civil, pedimos fossem as redes compelidas a retirar do ar o conteúdo que conseguimos encontrar e que ainda tomassem providências ativas para localizar e retirar do ar outros conteúdos idênticos não encontrados.
Com relação à responsabilidade civil, as redes, conforme esperado, se defenderam dizendo que não há cabimento em razão do que diz o artigo 19 do Marco Civil, isto é, que somente poderiam ser responsabilizadas em caso de recusa ou demora de retirada do conteúdo do ar, não sendo cabível a responsabilidade pelo conteúdo publicado por terceiros. A alegação é descabida pelos termos da própria lei.
O mesmo dispositivo invocado pelas redes em sua defesa diz, ao final, que se ressalvam disposições legais em contrário. No caso concreto, o artigo 18 do Estatuto da Criança e do Adolescente (ECA) é claro em dizer que “é dever de todos velar pela dignidade da criança e do adolescente, pondo-os a salvo de qualquer tratamento desumano, violento, aterrorizante, vexatório ou constrangedor”. Ora, se por um lado as redes sociais em tese não poderiam ser cobradas de desenvolverem algoritmos capazes de identificar uma menor sendo ilegalmente filmada e humilhada, por outro é evidente que, uma vez que comunicadas de conteúdo criminoso, deveriam tomar as providências.
O cerne da questão aqui é o que a empresa faz quando informada de conteúdo ilegal. Se ela opta por deixar apenas e tão somente que seu algoritmo mal alimentado de dados avalie a denúncia, se ele não a encaminha para uma supervisão humana, isso é um problema da plataforma, não da vítima. Foi dada a oportunidade de retirar o conteúdo do ar, mas a empresa se posicionou pela manutenção. Assumiu o risco, responsabiliza-se por ele. Ponto.
A situação pode parecer um pouco mais delicada quando falamos de se fazer uma varredura na plataforma para localização e eliminação de conteúdo, bem como proibição de uploads futuros, mas esse pensamento se dá em razão de uma visão que temos de uma Internet que ficou no passado. Deixemos 2014 para trás e vamos examinar os fatos com o que se pode fazer em 2023, buscando compreender um conceito e um conhecimento básico de machine learning. Você chegará à conclusão de que as redes podem perfeitamente cumprir a ordem judicial exarada no processo.
Quando se fala em aprendizado de máquina, estamos falando de um subcampo da inteligência artificial voltado para o desenvolvimento de algoritmos que permitem que computadores aprendam e façam previsões ou tomem decisões a partir de um conjunto de dados, sem que tenham sido especificamente programados para isso.
É o algoritmo alimentado por inteligência artificial, por exemplo, que consegue identificar um spam e mandá-lo diretamente para a caixa respectiva do seu e-mail. Você não precisou sinalizá-lo como mensagem não solicitada, a máquina chegou a essa conclusão sozinha, porque identificou que aquele comportamento e aquele conteúdo são compatíveis com o que seu banco de dados identifica como spam.
Recomendados pelo LinkedIn
Esporadicamente algum e-mail passa pelo filtro ou um que não é spam acaba sinalizado como tal. São respectivamente os falsos negativos e falsos positivos. Nestes casos, as instruções dadas pelo usuário de acordo com a ocorrência (“isto é um spam” para o primeiro caso, e “isto não é um spam” para o segundo caso) contribuem para a alimentação do banco de dados, de modo a melhorar análise futura, impedindo os resultados equivocados.
A menção a falso positivo nos remete a um caso cômico dos excessos de pudores dos primórdios algorítmicos do Facebook, nos idos de 2011. A história serve para demonstrar como as redes sociais há muito já se valem da inteligência artificial e do aprendizado de máquina para moderar o conteúdo do que é publicado em suas plataformas.
Trata-se do caso de um professor francês, que teve sua conta naquela rede deletada após publicar uma fotografia do quadro “A Origem do Mundo”, de Gustave Courbet. O algoritmo o identificou como material pornográfico, concluiu que ele violava os termos da plataforma e puniu o proprietário da conta com a expulsão. Quem conhece o quadro consegue entender o falso positivo. Quem não conhece, bom, se for pesquisar por ele no ambiente de trabalho, avise ao chefe antes para evitar um mal-entendido.
O caso repercutiu a ponto de o Facebook ter tido de ensinar o seu algoritmo a identificar obras de arte e diferenciá-las de pornografia. Entrou aqui a supervisão humana, que é uma das formas pelas quais a máquina aprende informações novas que vão contribuir para um melhor desempenho seu (ela também pode aprender sozinha, seja por ser programada a identificar padrões em dados não rotulados, seja por tentativa e erro).
Essas colocações são importantes para termos em mente o que um algoritmo é capaz de fazer e como as big techs são capazes de intervir diretamente quando precisam dar instruções específicas a ele para melhorar seu desempenho. A pergunta que fica é: será que uma plataforma é capaz de instruir seu algoritmo para fazer uma varredura em toda sua rede social para identificar e moderar conteúdo específico sem fornecimento de URLs?
A resposta é positiva. Vejamos.
Como vimos, o machine learning é um método excelente e eficaz para o reconhecimento de um padrão de dados. No caso concreto que apresentamos como exemplo, é possível que o algoritmo seja instruído para “memorizar” o vídeo e em seguida fazer uma varredura na rede em busca de conteúdo idêntico, deletando-o. Pode ainda ser instruído a proibir que o vídeo volte a ser publicado dali em diante. A IA já conhece e reconhece o vídeo, portanto pode impedir sua publicação.
Note ainda que a ideia de “memorização” do vídeo não se limita ao seu conteúdo visual, mas também a áudio, metadados, e até mesmo padrões de comportamento de upload. Similar com o que se dá na identificação de spam, a IA é capaz de identificar o tipo de perfil que publica aquele tipo de vídeo. São possibilidades igualmente relevantes a considerar, porque permitem que o algoritmo localize recortes específicos do vídeo publicado em suas redes.
A questão é fundamentalmente o querer. Trata-se de cobrar responsabilidade corporativa, vontade política e atuação ética das big techs. E apesar dos pesares, é inegável que há uma crescente conscientização sobre o impacto das mídias sociais na sociedade, aumentando a pressão sobre essas empresas, para que utilizem suas tecnologias de forma responsável, incluindo a moderação de conteúdo prejudicial ou criminoso, especialmente quando envolve menores.
Enquanto não surge uma pressão legislativa pela mudança dos termos da Lei para sua adequação ao desenvolvimento tecnológico desses quase dez anos depois, a nós cabe pressionar tanto socialmente — cobrando responsabilidade e comprometimento das big techs — quanto judicialmente, afastando a interpretação literal que dá conforto àquelas empresas, passando a adotar uma leitura atualizada que considere a intenção do legislador quando da redação da lei, isto é, como ele teria redigido o dispositivo se naquela época existisse a tecnologia que existe hoje.
Quanto ao caso concreto, não temos dúvida de que as empresas vão recorrer e tentar reverter a decisão, pedindo a aplicação literal da lei e da jurisprudência do STJ. Mas os tempos mudam e a jurisprudência muda com eles. Se confirmado o recurso, o Tribunal de Justiça do Estado do Rio de Janeiro, historicamente antenado às novas tecnologias, terá a oportunidade de sair na vanguarda de uma nova interpretação judicial sobre a aplicabilidade do artigo 19, §1° da Lei do Marco Civil. Pra nós foi uma honra e um privilégio poder provocar essa discussão no Poder Judiciário.
E essa é apenas a ponta do iceberg. O mesmo machine learning que pode ser utilizado de forma muito específica, pode também ser utilizado para situações um pouco mais genéricas, como a identificação de vídeos com toda a estética e discurso de golpes financeiros, que vem se proliferando nas redes sociais. Todos esses vídeos seguem padrões que a máquina pode aprender a identificar. Mas esse é um assunto que fica para um próximo texto.
E esse foi o primeiro texto de uma série que chamarei de “Isso não é um artigo”. Ele não tem a intenção de ser acadêmico ou profundamente científico a ponto de manter a discussão entre quem domina o juridiquês. A proposta aqui é o contrário, trazer temas jurídicos para quem não é da área, com a finalidade de aproximá-la de quem é o destinatário das leis e, acima de tudo, incentivar reflexões a respeito de temas importantes para o exercício da cidadania. Afinal o Direito não é um fim em si mesmo e não existe isoladamente — ele existe para atender, responder e regulamentar questões socais.
Por fim, fiquem à vontade para comentar, perguntar, acrescentar, discordar (civilizadamente, por favor), enfim, interagir com o tema. A ideia é essa mesma.
Até o próximo!