Redes sociais devem garantir ambiente seguro

Marcello Casal Jr/Agência Brasil

As plataformas de redes sociais têm atuado com práticas que violam obrigações previstas no direito do consumidor, de assegurar ambientes seguros de utilização do serviço que não ponham em risco a saúde, a vida e a dignidade das pessoas. A opinião é de Flávia Lefèvre Guimarães, advogada especializada em direito do consumidor e direitos digitais. A posição coincide com o teor de uma portaria editada pelo Ministério da Justiça e Segurança Pública (MJSP), na última quarta-feira (12), que define uma série de obrigações para essas empresas, incluindo um fluxo de remoção imediata de conteúdos que fazem apologia à violência nas escolas.  

“Eu apoio a portaria. Estamos falando de conteúdos ilícitos, danosos, que fazem apologia à violência. É algo inequivocamente ilegal e, para tanto, considerando que as plataformas têm obrigação de garantir um ambiente seguro aos seus usuários, ela não pode ficar omissa e passiva diante do que tem acontecido nas redes”, sustenta a advogada.

Nas últimas semanas houve mais dois atentados desse tipo e ameaças de ataques têm se propagado no país inteiro, disseminando pânico e temor entre alunos e familiares. Segundo o Ministério da Justiça e Segurança Pública, a Operação Escola Segura já resultou em centenas de prisões, apreensões de adolescentes e buscas em todo o país nos últimos dias.

A edição da plataforma levantou preocupações de especialistas e entidades da sociedade civil sobre impactos na liberdade de expressão e também por ser um ato administrativo com poder de remoção de conteúdos das redes sociais, além de, no limite, até suspender o serviço, como anunciou o ministro Flávio Dino, da Justiça e Segurança Pública, caso as empresas não cumpram as obrigações previstas. Para Flávia Lefèvre, a medida é correta e tem uma incidência definida, que é especificamente a remoção de conteúdos ilegais de propagação de violência, o que justificaria a ação do Estado de forma emergencial.  

“Quando a gente tem um aparente conflito entre dois direitos, a própria Constituição diz que é preciso aplicar o princípio da proporcionalidade. Quais os bens jurídicos estão em jogo e contemplados na portaria? A segurança das crianças e adolescentes e dos seus pais, que estão sujeitos a essa campanha terrorista, e a liberdade de expressão. A medida, portanto, é proporcional diante dos bens [jurídicos] colocados em risco”, observa.

“A única crítica que eu faria é que, como a própria portaria coloca, essas medidas são dotadas de caráter excepcional, emergencial, então teria sido importante que a norma previsse um prazo de vigência”, acrescenta.

Omissão

Flávia Lefèvre aponta também que a portaria ajuda a romper com um ciclo grave de omissão por parte dessas empresas, o que gerou consequências desastrosas para o ambiente democrático do país, ao menos nos últimos cinco anos.

“A gente tem visto uma escalada muito grande, desde 2017, com participação ativa das plataformas na difusão de ódio, discursos ilegais e que comprometem a saúde pública, como vimos durante a pandemia, e a própria democracia, como ocorreu nas eleições de 2018 e também de 2022”, argumenta.

Como exemplo, a advogada cita uma pesquisa da Fundação Oswaldo Cruz (Fiocruz), do ano passado, que aponta 75% da desinformação em relação a medicamentos ineficazes contra a covid-19 e desestímulo à vacina. O material foi veiculado pelo Facebook.

Um dos pontos que a portaria tenta rebater é a ideia de que as plataformas seriam meras reprodutoras de conteúdos gerados por terceiros. “As plataformas de redes sociais não são simples exibidoras de conteúdos postados por terceiros, mas mediadoras dos conteúdos exibidos para cada um dos seus usuários, definindo o que será exibido, o que pode ser moderado, o alcance das publicações, a recomendação de conteúdos e contas, e, assim, não são agentes neutros em relação aos conteúdos que nela transitam”, diz um dos trechos do ato normativo do Ministério da Justiça.

Modelo de negócios

Uma das explicações para uma situação generalizada de omissão por parte das plataformas de redes sociais está ligada ao próprio modelo de negócios dessas multinacionais, que se estrutura sobre o uso de dados dos usuários para a venda de aplicações e perfilização de clientes para oferta de serviços e produtos. Daí que conteúdos que geram engajamento nessas redes são financeiramente atrativos para as empresas.  

“Infelizmente, esse tipo de conteúdo de violência e de ódio gera mais engajamento e mais ganhos para a plataforma”, diz Lefèvre. Mesmo sendo empresas privadas, o alcance sem precedentes dessas plataformas no contexto de influência sobre o debate público torna sua regulação uma garantia democrática.  

“São empresas privadas cuja atuação afeta direitos fundamentais e o interesse público, porque elas têm controle, com suas práticas algorítmicas, sobre fluxo de informação. É um poder imenso. E o uso de sistemas algorítmicos e inteligência artificial, somado ao controle mundial de mercado, exige uma regulação pública”, defende a advogada.

Regras

Entre outros pontos, a portaria exige o compartilhamento, entre as plataformas de redes sociais e as autoridades policiais, de dados que permitam a identificação do usuário ou do terminal da conexão com a internet que o usuário disponibilizou o conteúdo considerado violento contra escolas. Este trabalho ficará sob coordenação da Secretaria Nacional de Segurança Pública (Senasp), também vinculada ao Ministério da Justiça e Segurança Pública.

Também segundo a portaria, a Senasp poderá determinar às plataformas que impeçam a criação de novos perfis a partir dos endereços de protocolo de internet (endereço IP) em que já foram detectadas atividades ilegais, danosas e perigosas.

Ainda de acordo com a portaria, a Senasp vai instituir um banco de dados de conteúdos ilegais, contendo links, imagens e vídeos, entre outros, com o objetivo de facilitar a identificação pelos sistemas automatizados das plataformas para que sejam rapidamente removidos.

A portaria não determina prazos específicos de remoção, mas o ministro da Justiça disse que deverá adotar como padrão o prazo máximo de duas horas, o mesmo usado pela Justiça Eleitoral durante as eleições de 2022, para a retirada de conteúdos ilegais nas redes sociais.

No âmbito do direito do consumidor, a Secretaria Nacional do Consumidor (Senacon) vai instaurar processos administrativos para apuração de responsabilidade de cada empresa em relação à eventual violação do que o ministro Flávio Dino chamou de “dever de segurança e de cuidado” das plataformas em relação a conteúdos violentos contra comunidades escolares.

O descumprimento das medidas, segundo Flávio Dino, poderá acarretar aplicação de multas que podem chegar a R$ 12 milhões ou, nos casos mais graves, até mesmo na suspensão administrativa dos serviços das redes sociais no país.

Outro lado

Após enviar uma representante para se reunir com o ministro da Justiça na última segunda-feira (10), o Google (que controla o YouTube) afirmou, em nota, que participou do encontro “em uma demonstração do comprometimento com as autoridades públicas brasileiras no enfrentamento de desafios sociais, como os recentes episódios de violência em escolas”.

“Também temos trabalhado em parceria com outros órgãos públicos e organizações da sociedade civil em prol da segurança das pessoas contra conteúdos nocivos que violam nossas políticas e desrespeitam nossas Diretrizes de Comunidade, a exemplo daqueles que propagam discursos de ódio e outras violências, como demonstra nosso relatório de transparência. Além disso, anualmente, produzimos dados em resposta a milhares de pedidos de autoridades para instrução de investigações criminais no Brasil”, acrescentou o Google.

A Agência Brasil também entrou em contato com as assessorias da Meta (Instagram e o Facebook), mas não recebeu manifestação.

A reportagem não conseguiu contato com representantes do Tik Tok. Já o Twitter não tem mais assessoria de comunicação no Brasil e costuma responder solicitações da imprensa, através de um e-mail internacional, com emoji de fezes.

- PUBLICIDADE -