A sequência de publicações sobre ataques e de supostas ameaças de atentados em escolas em redes sociais nas últimas semanas expõe a falta de controle no Brasil sobre a circulação de discursos de ódio em ambientes online.
Nesta matéria publicada originalmente pelo Estadão, os repórters João Ker e Ítalo Lo Re, lembram que o Ministério da Justiça pediu nesta semana à Justiça a remoção de pelo menos 511 contas que tenham conteúdo nocivo, mas também prepara uma nova regulamentação que permita a retirada mais rápida desses materiais do ar. Já as plataformas alegam ter políticas próprias para frear a disseminação de incitação à violência.
Segundo especialistas, o controle sobre a disseminação desse material é essencial para coibir novos ataques e desarticular redes que estimulam massacres. Outra vulnerabilidade, dizem eles, é a baixa presença do Brasil em coalizões internacionais.
A discussão envolve o Supremo Tribunal Federal, que analisa a ação questionando um trecho específico do Marco Civil da Internet, o qual prevê a necessidade de ordem judicial para a retirada de certos conteúdos. A depender do entendimento da Suprema Corte, a exigência de uma determinação da Justiça não seria mais necessária para a remoção dessas mensagens, o que abre espaço para a exigência feita pelo Ministério da Justiça para que as plataformas tenham uma autorregulação maior.
Paulo Rená da Silva Santarém, professor e codiretor do coletivo jurídico Aqualtune Lab, explica que o País tem uma legislação ampla para tratar de eventuais ameaças online e offline, mas que é poucas vezes acionada. “O Brasil tem um cenário complacente com esse crime. Na internet, essa complacência habitual pode alimentar que ameaças graves se materializem”, diz. “Estamos atrasados. Quando há um perfil em desacordo com as leis, as redes demoram a responder e quando respondem é sempre de forma evasiva.”
Apenas nos dois dias que seguiram ao massacre em uma creche de Blumenau, a equipe do Ministério da Justiça detectou 511 perfis com apologia ao crime apenas no Twitter. Um traço em comum é o uso de nomes e fotos de perfil que exaltam outros assassinatos – como no espaço visitado pelo aluno que viria a matar a professora na Vila Sônia (SP).
Durante a reunião nesta segunda-feira com a equipe do ministério, entretanto, uma advogada do Twitter negou que esse tipo de perfil represente necessariamente uma apologia ao crime e defendeu que se trata da “liberdade de expressão” dos usuários. “Não vamos aceitar isso e vamos tomar todas as providências policiais e judiciais cabíveis”, afirmou o ministro Flávio Dino.
“Diferentemente das outras redes, o Twitter não está fazendo nada sobre as denúncias. Está apenas deixando rolar”, afirma Thiago Tavares, presidente da SaferNet, organização sem fins lucrativos que monitora e combate discursos de ódio e ameaças na internet desde 2005. “Estamos vendo mensagens de incentivo e incitação para que outras pessoas façam esses ataques, inclusive ações de planejamento, e a plataforma simplesmente não faz nada.”
No último dia 7, a SaferNet e o Ministério da Justiça criaram um canal exclusivo para receber denúncias de ataques contra escolas registradas online. Desde então, mais de 50% das ameaças rastreadas pela iniciativa estavam no Twitter. No ano passado, a rede social do passarinho azul também ficou em 1º lugar dentre os e sites que concentram mais discursos de ódio em todas as categorias mapeadas pela organização, como racismo, xenofobia, LGBTfobia e incitação ao crime.
“O que está acontecendo agora é que esse discurso radicalizado está vindo mais para o centro porque o Twitter praticamente abandonou quase toda a moderação da sua plataforma”, explica David Nemer, antropólogo e professor da Universidade de Virgínia, nos Estados Unidos. “Antes, essa moderação podia até ser falha, mas existia. Agora, não há qualquer tipo de controle e essas contas vêm se proliferando porque geram engajamento. Conteúdos que criam essa comoção negativa é algo que o próprio algoritmo indica”, afirma.
Alemanha é pioneira na regulação das redes
A Alemanha é considerada por pesquisadores como um país pioneiro na adoção de medidas para regulação das redes, embora a solução adotada receba críticas. O país implementou o Network Enforcement Act há cerca de cinco anos. “Essa lei determina basicamente que as empresas têm 24 horas para retirar conteúdo que seja ‘claramente ilegal’ depois de ter recebido uma reclamação de um usuário”, explica Celina Bottino, diretora de projetos do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS-Rio).
Em paralelo, o conteúdo que não é avaliado como manifestamente ilegal teria uma semana para ser retirado, a depender da avaliação que é feita pela própria empresa de tecnologia. Essas medidas, caso não sejam adotadas pelas empresas de tecnologia, podem resultar em multas de até U$S 50 milhões.
Apesar de inovadora, a regulação é alvo de críticas. “Ela tem sido criticada pela dificuldade da sua aplicação na prática, justamente por colocar na mão das plataformas o que seria esse conteúdo ilegal”, diz Celina. Além de também condicionar a retirada de conteúdos a uma reclamação de usuários, e não a uma ação mais proativa das redes.
A expectativa é que, no curto prazo, a legislação da Alemanha seja melhor delimitada pelo Digital Services Act (DSA), que começou a ser implementada para países da União Europeia no fim do ano passado. “É uma regulação de plataformas digitais de uma forma bem abrangente e ampla”, afirma o pesquisador sênior João Victor Archegas, também vinculado ao ITS-Rio. Ele também cita como referência o Reino Unido, que está prestes a aprovar uma legislação sobre regulação de plataformas.
Conforme Archegas, a proposta do governo federal de incorporar um dever de cuidado no país, para eventualmente responsabilizar as plataformas, é inspirada na regulação europeia, mas ainda esbarra em limitações na legislação. “O Brasil tem olhado atentamente para essas experiências para tentar moldar uma regulação de plataformas específicas no país”, diz. Nesse momento, porém, há limitações para responsabilizar as plataformas no país, em razão do artigo do Marco Civil da Internet, mas essa discussão está ganhando força.
Medidas
Em nota, o TikTok afirmou estar “trabalhando agressivamente para identificar e remover relatos e conteúdos que buscam promover ou incitar atos de violência, glorificar os autores de violência e espalhar desinformações prejudiciais que poderiam causar pânico ou validar farsas, incluindo a restrição de hashtags relacionadas”.
Facebook e Instagram disseram não permitir a presença de conteúdos, pessoas ou organizações que anunciem uma missão violenta ou estejam envolvidas em atos de violência nas plataformas da Meta. “Isso inclui atividade terrorista, atos organizados de ódio, assassinato em massa (incluindo tentativas) ou chacinas, tráfico humano e violência organizada ou atividade criminosa”, disse. O Twitter respondeu a solicitação apenas com um emoji de fezes.
O WhatsApp afirmou encorajar que as pessoas reportem condutas inapropriadas diretamente nas conversas, por meio da opção “denunciar” disponível no menu do aplicativo (menu > mais > denunciar) ou pressionando uma mensagem por mais tempo e acessando menu > denunciar. As pessoas também podem enviar denúncias para o email [email protected]. Discord, Telegram e Youtube não se pronunciaram até as 19h30 da terça-feira.