Moraes diz que 8 de janeiro demonstrou ‘total falência do sistema de autorregulação das redes sociais’
Moraes diz que 8 de janeiro demonstrou 'total falência do sistema de autorregulação das redes sociais'
Supremo julga se plataformas podem ser responsabilizadas por conteúdos irregulares publicados por usuários, mesmo que não tenham recebido ordem judicial para retirar as publicações do ar.
Por Fernanda Vivas, Ana Flávia Castro, TV Globo e g1 — Brasília
O ministro
Alexandre de Moraes, do Supremo Tribunal Federal (STF), defendeu, durante o
julgamento sobre a responsabilidade das redes sociais pelo conteúdo de
usuários, que os atos antidemocráticos de 8 de janeiro de 2023 demonstram
“total falência do sistema de autorregulação” das plataformas.
“É
faticamente impossível defender, após o dia 8 de janeiro, que o sistema de
autorregulação funciona. Falência total e absoluta, instrumentalização e,
lamentavelmente, parte de conivência. Por que digo de falência? Falência porque
tudo foi organizado pelas redes, ou parte das redes”, declarou.
O Supremo
julga, nesta quinta-feira (28), se as redes sociais podem ser processadas por
danos causados por conteúdos publicados por usuários, mesmo que não tenham
recebido antes uma ordem para a retirada das postagens irregulares.
A questão
surgiu a partir da manifestação do ministro da Advocacia-Geral da União Jorge
Messias. Ao apresentar os argumentos da AGU no caso, Messias citou o que
ocorreu no 8 de janeiro de 2023.
Em meio à
depredação das sedes dos Três Poderes, Messias lembrou que teve que fazer
pedidos ao ministro Alexandre de Moraes para que fosse determinada a retirada
de conteúdos das redes sociais, que transmitiam a invasão aos prédios públicos.
O ministro
da AGU lembrou que apenas com a decisão de Moraes as plataformas digitais
tomaram providências.
“Estamos
tratando de algo maior, da própria sobrevivência do Estado Democrático de
Direito”, afirmou Messias.
O
advogado-geral da União argumentou ainda que há um ambiente de
“infodemia” (excesso de informações), que traz prejuízos econômicos e
à qualidade da democracia.
Após a fala
de Messias, o ministro Alexandre de Moraes — relator de processos relativos ao
8 de janeiro — também falou sobre os atos antidemocráticos. Para ele, não é
possível defender que as redes estabeleçam, por si sós, critérios de remoção de
postagens.
“O dia
8 de janeiro demonstrou a total falência do sistema de autorregulação de todas
as redes, de todas as big techs”, afirmou Moraes.
“É
faticamente impossível defender, após o dia 8 de janeiro, que o sistema de
autorregulação funciona. Falência total e absoluta. Instrumentalização e,
lamentavelmente, parte de conivência”, completou.
Moraes
ressaltou que os ataques foram organizados pelas redes e que os criminosos
incitavam, em transmissões ao vivo, outras pessoas a participar da destruição.
“Por que digo de falência? Falência porque tudo foi organizado pelas redes, ou parte das redes. Todos se recordam aqui, a festa da Selma. Selma, mulher de um dos generais investigados. Depois, no dia, a Praça dos Três Poderes invadida, o Supremo sendo destruído, o Palácio do Planalto, as pessoas fazendo vídeo, postando nas redes sociais, chamando gente para destruir”, lembrou.
“E as
redes sociais não retiraram nada. Por quê? Like em cima de like, sistema de
negócio, monetização… Então, se não fosse pela falência em virtude da
organização anterior, foi pela instrumentalização e conivência no dia 8 que se
demonstra que autorregulação não funcionou. E não venham – não adiantando voto
– não venham dizer que isso é contra a liberdade de expressão”, completou,
ressaltando que se trata de um dos julgamentos mais importantes do ano.
Integrantes
do STF conectam ação de Francisco Wanderley aos ataques de 8 de janeiro de 2023
Atentado
com bomba
Na
sequência, a ministra Cármen Lúcia lembrou o caso do homem que detonou
explosivos em frente ao Supremo, no último dia 13.
“Este
último episódio em frente ao nosso prédio também estava nas redes. A postagem
da pessoa atacando o supremo, dizendo que ia fazer alguma coisa e não se
conseguiu nem ver, nem vislumbrar, nem nada. O que tivemos foi aquela noite com
um ato trágico. Trágico institucionalmente, pessoalmente e de toda
natureza”.
Moraes
ressaltou que não é possível usar o argumento de que é impossível,
tecnologicamente, realizar o controle.
“E não
se diga que tecnologicamente não é possível. Porque em relação — sabemos todos
— à pornografia infantil, pedofilia e direitos autorais, a inteligência
artificial e os algoritmos retiram, antes de um like, 93% das postagens, e os
7% seguintes são encaminhados à comissão de seres humanos. Então, é possível
tecnologicamente. O que não houve e não vem havendo é empenho”, declarou.
🛜Marco Civil da Internet
Os casos
envolvem a aplicação de um trecho do Marco Civil da Internet. A lei, que entrou
em vigor em 2014, funciona como uma espécie de Constituição para o uso da rede
no Brasil — estabelece princípios, garantias, direitos e deveres para usuários
e empresas.
Em um dos artigos, ela estabelece que as plataformas digitais só serão responsabilizadas por danos causados por conteúdos ofensivos se, depois de uma ordem judicial específica, não tomarem providências para retirar o material do ar.
A questão
envolve como as plataformas devem agir diante de conteúdos criados por usuários
que ofendem direitos, incitam o ódio ou disseminam desinformação.
A Corte
deverá elaborar uma tese, a ser aplicada em processos sobre o mesmo tema nas
instâncias inferiores da Justiça.
Segundo
dados do Conselho Nacional de Justiça, há pelo menos 345 casos com o mesmo
conteúdo aguardando um desfecho no Supremo.