A volta do julgamento ocorre em um momento de
tensão entre o STF, empresas do setor e o governo dos Estados Unidos. Nas
últimas semanas, a gestão Trump intensificou as ameaças de retaliação a
autoridades estrangeiras que têm atuado para regular
plataformas digitais ou tomado decisões contra usuários que estariam cometendo
crimes em redes sociais — ações que a Casa Branca considera censura.
O ministro do STF Alexandre de Moraes foi citado
nominalmente como um dos potenciais alvos de sanções pelo secretário de Estado
dos EUA, Marco Rubio.
Defensores do endurecimento da regulação das
plataformas consideram que é preciso adotar regras mais rígidas sobre esse
setor para evitar a circulação de conteúdo criminoso nas redes, como mensagens
que incentivem assassinatos em escolas ou ataques contra o sistema democrático.
Já os críticos consideram que as empresas vão
acabar deletando conteúdos legítimos com medo de punições, afetando a liberdade
de expressão.
Grandes plataformas como Google (dona do YouTube),
Meta (dona de Facebook, Instagram e WhatsApp) e X (antigo Twitter) usam esse
argumento para se opor a mudanças, que podem aumentar seus custos operacionais
e o risco de punições, como multas elevadas caso não cumpram regras novas.
"As plataformas vão ter que preventivamente
remover qualquer conteúdo que seja potencialmente questionável para evitar uma
responsabilização ou um passivo financeiro", disse o presidente do Google
no Brasil, Fábio Coelho, em entrevista recente ao portal UOL.
Até o momento, três ministros votaram para aumentar
as obrigações das plataformas, sendo que os ministros Dias Toffoli e Luiz Fux
foram mais duros que Luís Roberto Barroso, atual presidente da Corte.
Toda a Corte parece estar na mira do governo Trump,
mas o foco claro está em Moraes.
Nos últimos anos, o ministro suspendeu contas em
plataformas ou determinou a prisão de pessoas que teriam proferido discursos
antidemocráticos e ameaçado autoridades brasileiras no ambiente virtual,
atingindo grandes empresas sediadas nos EUA. Ele chegou a suspender a atuação
do X no país, quando a empresa americana se recusou a cumprir suas decisões.
Atualmente, o ministro é relator de um processo
criminal sobre uma suposta tentativa de golpe de Estado liderada pelo
ex-presidente Jair Bolsonaro. O deputado Eduardo Bolsonaro (PL-SP) está nos EUA
articulando para que a Casa Branca retalie Moraes, por exemplo com a
proibição de sua entrada no país ou a aplicação Lei Global Magnitsky, que impede qualquer
pessoa ou empresa nos EUA de realizar transações econômicas com o alvo das
sanções.
Em resposta, o ministro atendeu ao pedido da
Procuradoria-Geral da República (PGR) e abriu um inquérito para investigar o filho do
ex-presidente por tentativa de obstrução de Justiça.
Para Pablo Ortellado, professor de gestão de
políticas públicas na USP, a retomada do julgamento neste momento pode ser
entendida como uma resposta institucional do STF às ameaças do governo Trump.
"Tem um jogo de pressão mútua. Ficou claro nas
manifestações do Departamento de Estado [sobre potenciais sanções contra autoridades
estrangeiras] que aquilo era sobre o Brasil, sobretudo. E, secundariamente, por
extensão, Europa. Não sei se foi só isso, mas com certeza isso faz parte do
contexto da retomada do julgamento", ressalta.
Para a especialista em governança e regulação
digital Bruna Santos, as ameaças do governo Trump mostram que a Casa Branca
identificou que é do STF que pode sair uma regulação das plataformas, já que o
tema está travado no Congresso brasileiro.
"A retomada do julgamento, acima de tudo, é
mais uma das demonstrações de força do Judiciário brasileiro com relação ao
tema de regulação de plataformas. Mostra que o Judiciário tem esse interesse em
oferecer respostas que o Congresso não ofereceu", disse Santos, que atua
na Witness, organização baseada nos EUA que promove o uso da tecnologia para
defesa dos direitos humanos.
A análise do tema no STF começou em dezembro, mas
foi interrompida por pedido de vista (mais tempo para analisar o caso) do
ministro André Mendonça. Com o fim do prazo para vista, Mendonça liberou as
ações para julgamento na semana passada e o presidente do STF pautou o
julgamento rapidamente.
A regulamentação das plataformas é defendida pelo
governo Lula e repudiada pelo campo bolsonarista.
Na sexta-feira (30/5), Jair Bolsonaro exaltou a participação
de Google e Meta no 2º Seminário Nacional de Comunicação do Partido Liberal
(PL), em Fortaleza. As duas empresas apresentaram como funcionam alguns de seus
produtos, como ferramentas de Inteligência Artificial.
Procuradas pela BBC News Brasil, Google e Meta
negaram qualquer alinhamento com campos políticos e informaram que o mesmo tipo
de apresentação já foi oferecido para outras instituições e partidos.
"Passou aqui o representante da Google e da
Meta. Estão do lado certo, juntamente com as diretrizes da Primeira Emenda [da
Constituição] dos Estados Unidos. A liberdade de expressão é a nossa alma, é o
nosso oxigênio", afirmou Bolsonaro, no evento.
Em seu discurso, o ex-presidente também disse
contar com a ajuda do governo Trump, após citar a atuação do seu filho nos EUA.
"Não é fácil, mas nós venceremos. Com a ajuda
de Deus e também com a ajuda de outro país lá do norte. Enganam-se aqueles que
acham que só nós temos condições de reverter esse sistema. Não temos.
Precisamos de ajuda de terceiros", disse.
Lula, por sua vez, atacou a atuação de Eduardo
Bolsonaro nos EUA e disse que, se algo concreto acontecer, "o Brasil vai
defender, não só o seu ministro, mas defender a Suprema Corte".
"O que é lamentável é que um deputado
brasileiro, filho do ex-presidente, está lá a convocar os Estados Unidos para
se meter na política interna do Brasil. É uma prática terrorista, um prática
antipatriótica", disse, em entrevista a jornalistas nesta terça-feira
(3/6) no Palácio do Planalto.
Entenda melhor o que será julgado
As duas ações questionam a constitucionalidade de
trechos do Marco Civil da Internet — ou seja, se trechos dessa lei estariam em
desacordo com princípios da Constituição e, por isso, devem ter sua aplicação
alterada pelo STF.
O foco principal é a validade do artigo 19, que
estabelece que as plataformas digitais não podem ser responsabilizadas por
conteúdos compartilhados pelos usuários, com exceção dos casos de
"pornografia de vingança" (divulgação de imagens de nudez sem
autorização da pessoa fotografada/filmada).
Ou seja, o artigo 19 significa que as empresas, na
maioria dos casos, só são obrigadas a apagar postagens após ordem judicial.
As duas ações em julgamento tratam de casos
concretos, mas a decisão terá repercussão geral, ou seja, fixará parâmetros gerais
para o funcionamento das plataformas.
Num dos casos julgados, uma professora processou o
Google porque a empresa se recusou a apagar uma comunidade contra ela criada
por alunos no Orkut, rede social que já não existe mais. A professora chegou a
notificar extrajudicialmente a plataforma solicitando a exclusão da página
antes de ingressar na Justiça, mas não foi atendida.
No outro caso em análise, uma mulher processou o
Facebook (rede social do grupo Meta) por se recusar a apagar um perfil falso
criado com seu nome para divulgar conteúdo ofensivo.
As duas empresas argumentaram que não poderiam
apagar conteúdos sem decisão judicial, sob risco de ferir a liberdade de
expressão.
"Ser obrigação dos provedores de aplicações na
internet as tarefas de analisar e excluir conteúdo gerado por terceiros, sem
prévia análise pela autoridade judiciária competente, acaba por impor que
empresas privadas — como o Facebook Brasil e tantas outras — passem a
controlar, censurar e restringir a comunicação de milhares de pessoas, em
flagrante contrariedade àquilo estabelecido pela Constituição Federal e pelo
Marco Civil da Internet", argumentou o Facebook na ação.
Em argumentação semelhante, a Google sustenta que
não tem obrigação de indenizar a professora por não ter removido a comunidade
no Orkut antes de uma determinação judicial:
"Não sendo a Google possuidora do poder
jurisdicional do Estado e não havendo qualquer conteúdo manifestamente ilícito
no perfil objeto da lide, não se poderia esperar outra atitude sua do que aguardar
o posicionamento do Poder Judiciário", disse a empresa.
A professora que processou a rede social, por sua
vez, argumentou ao STF que "admitir as razões da Recorrente (Google) seria
correr o risco de se fazer da internet uma terra sem lei, onde anonimamente,
invocando a liberdade de expressão e o direito de comunicação, praticar-se-á
todo tipo de ato e crime sem vigilância, consequência ou punição alguma".
O que pode ser decidido pelo STF?
A expectativa é que o STF deve endurecer a
regulação das plataformas. Além dos três que já votaram assim, outros já
defenderam isso publicamente, como Alexandre de Moraes, Gilmar Mendes e Flávio
Dino.
Juristas especialistas em direito digital ouvidos
pela reportagem acreditam que o STF vai ampliar a possibilidade de
responsabilização das empresas em caso de conteúdos criminosos compartilhados
em suas plataformas.
Os primeiros votos indicam que isso pode incluir
conteúdos como pornografia infantil e crimes graves contra crianças e
adolescentes; instigação a suicídio ou a automutilação; tráfico de pessoas; atos
de terrorismo; abolição violenta do Estado Democrático de Direito e golpe de
Estado.
A ideia é que empresas poderiam ser punidas caso
não apaguem essas informações após serem notificadas por usuários.
Se a maioria do STF de fato for por esse caminho, a
expectativa é que a Corte estabeleça uma nova interpretação do artigo 19 do
Marco Civil da Internet "conforme a Constituição" — ou seja, uma nova
aplicação da lei que estaria mais adequada à conciliação de preceitos
constitucionais como a inviolabilidade da honra e da imagem dos indivíduos e os
direitos à liberdade de expressão e de livre comunicação.
A saída divide juristas. Para alguns, o tema
deveria ser decidido no Congresso Nacional, com amplo debate e participação da
sociedade. Propostas de novas leis sobre o tema, porém, têm ficado travadas
devido à grande divisão dos parlamentares.
Para Pablo Ortellado, a pressão do governo Trump
não deve evitar que os ministros do STF decidam por uma regulamentação mais
dura. Defensor de que essa mudança deveria partir do Congresso, ele diz temer
que o STF "pese a mão".
"É meio esperado que vai ser considerado
inconstitucional o artigo 19, mas o que que vai ser colocado no lugar? Não
conseguiria nem chutar aqui porque os ministros [que já votaram] falaram coisas
muito desencontradas", disse.
"É muito importante que a gente tenha uma
regulação equilibrada. Uma resposta boa do ponto de vista técnico seria a gente
ter alguma coisa como o 'dever de cuidado' europeu, mas não sei o que vai
vir", defendeu.
O "dever de cuidado" adotado pela União
Europeia é a obrigação das plataformas de atuar sistematicamente para evitar a
circulação de conteúdos criminosos. As empresas devem produzir relatórios
frequentes sobre suas ações e podem ser punidas se ficar comprovada uma falha
sistemática em coibir esses conteúdos.
Isso exigiria uma instância para fazer essa
fiscalização. O ministro Toffoli chegou a propor em seu voto a criação de um
departamento no Conselho Nacional de Justiça (CNJ) para acompanhar a aplicação
da decisão do STF no julgamento em curso.
O que dizem as plataformas?
Procuradas pela BBC News Brasil, empresas do setor
manifestam preocupação com o julgamento o STF.
A Câmara Brasileira da Economia Digital
(camara-e.net) — que representa empresas de serviços digitais e comércio
eletrônico, incluindo Google, Meta e TikTok — diz que "a responsabilização
objetiva imposta sem critérios claros representa um retrocesso para o ambiente
digital brasileiro, prejudicando a inovação, o empreendedorismo e o acesso a
serviços essenciais".
"A entidade destaca que mudanças nesse artigo
[do Marco Civil da Internet] podem abrir precedentes perigosos para a censura
privada, com remoção preventiva de conteúdos legítimos — inclusive diante de
denúncias infundadas — prejudicando educadores, criadores de conteúdo,
jornalistas, pequenos negócios e milhões de usuários".
"A camara-e.net defende que qualquer alteração
tão impactante deve ser discutida amplamente no Congresso Nacional, com ampla
participação técnica, social e do setor produtivo, para garantir segurança
jurídica, proteção de direitos fundamentais e o equilíbrio necessário para o
desenvolvimento sustentável da economia".
Em nota enviada à reportagem, o Google disse que já
remove "centenas de milhões de conteúdos" que violam suas regras e
defendeu o atual modelo, em que a Justiça é quem determina a retirada de outros
conteúdos.
"Boas práticas de moderação de conteúdo por
empresas privadas são incapazes de lidar com todos os conteúdos controversos,
na variedade e profundidade com que eles se apresentam na internet, refletindo
a complexidade da própria sociedade."
"A atuação judicial nesses casos é um dos
pontos mais importantes do Marco Civil da Internet, que reconhece a atribuição
do Poder Judiciário para atuar nessas situações e traçar a fronteira entre
discursos ilícitos e críticas legítimas".
Questionada sobre atuação do Google em um seminário
de comunicação do PL, a empresa diz que oferece treinamento para diferentes
partidos.
"O Google participa de inúmeros eventos
oferecendo treinamentos, com foco em ferramentas como Gemini e Google Trends.
Esse tipo de iniciativa contribui com o entendimento de profissionais em
diversas áreas sobre novas tecnologias, incluindo a inteligência
artificial".
"Ao longo dos últimos anos, o Google ministrou
treinamentos para organizações pelo país, incluindo partidos políticos de todos
os campos, órgãos públicos, empresas e empreendedores."
Procurada, a Meta enviou à reportagem manifestação
da empresa de dezembro, quando o STF iniciou o julgamento.
"Temos uma longa história de diálogo e
colaboração com as autoridades no Brasil, incluindo o Judiciário. Mas nenhuma
grande democracia no mundo jamais tentou implementar um regime de
responsabilidade para plataformas digitais semelhante ao que foi sugerido até
aqui no julgamento no STF".
"Não é o caso do regime previsto na Lei dos
Serviços Digitais (DSA, na sigla em inglês) na União Europeia, nem no NetzDG na
Alemanha ou na Seção 230 do Communications Decency Act (CDA) nos Estados
Unidos".
A empresa disse esperar "que seja alcançada
uma solução balanceada sobre o regime de responsabilidade das plataformas
digitais no Brasil à medida que o julgamento sobre a constitucionalidade do
Artigo 19 do Marco Civil da Internet avança".
Questionada sobre atuação da Meta no seminário de
comunicação do PL, a empresa respondeu: "Treinamentos com partidos
políticos com presença no Congresso Nacional são parte recorrente do nosso
trabalho há muitos anos. Oferecemos esses encontros para capacitar suas equipes
sobre boas práticas em nossas plataformas."
A reportagem tentou contato com o X, por meio do
escritório da advogada Rachel Vila Nova Conceição, representante legal da
empresa no Brasil, mas não obteve retorno.
(Fonte:
BBC)
Nenhum comentário:
Postar um comentário