Ele via nelas uma nova era de conexão global e democratização do aprendizado, capaz de permitir que os usuários criassem suas próprias praças públicas, sem a mediação de instituições tradicionais.
"Foi uma fase de otimismo intenso quando
entrei, e acredito que grande parte do mundo compartilhava isso", disse à
BBC.
Ao deixar a empresa em 2017, no entanto, já surgiam
dúvidas sobre suas práticas e elas só se intensificaram desde então.
"Essas plataformas têm muitas coisas boas, mas
há coisas ruins demais", avalia.
Essa visão deixou de ser incomum à medida que a
fiscalização das maiores redes sociais se intensificou no mundo.
Boa parte das críticas se concentra em adolescentes, transformados em um
mercado lucrativo para empresas globais extremamente ricas, às custas da saúde
mental e do bem-estar dos jovens, segundo especialistas.
Vários governos, do Estado americano de Utah
à União Europeia, têm testado limitar o uso de
redes sociais por crianças. A medida mais radical, porém, entra
em vigor na Austrália nesta quarta-feira (10/12): um veto a menores de 16 anos
que deixou as empresas de tecnologia em alerta.
Muitas das plataformas afetadas passaram o último
ano protestando contra a nova lei, que exige delas "medidas
razoáveis" para impedir que menores de idade criem contas.
As empresas afirmam que a restrição pode reduzir a
segurança das crianças, argumentam que fere seus direitos e depende de
tecnologias cujo uso para fiscalizar a política ainda levanta dúvidas.
"A Austrália está praticando uma censura
generalizada que tornará seus jovens menos informados, menos conectados e menos
preparados para navegar pelos espaços que deles se espera compreender quando
adultos", disse Paul Taske, da NetChoice, grupo comercial que representa
várias grandes empresas de tecnologia.
O setor teme que a proibição australiana — a
primeira do tipo — sirva de inspiração para outros países.
"Isso pode se tornar uma prova de conceito que
ganhe força ao redor do mundo", afirmou Nate Fast, professor da Marshall
School of Business da Universidade do Sul da Califórnia.
Denúncias, processos e dúvidas
Nos últimos anos, várias denúncias e processos
afirmaram que as empresas de redes sociais priorizam o lucro em detrimento da
segurança dos usuários.
Em janeiro, começa nos EUA um julgamento histórico
que ouvirá alegações de que empresas como Meta, TikTok, Snap Inc., dona do
Snapchat e YouTube projetaram seus aplicativos para serem viciantes e
encobriram conscientemente os danos causados por suas plataformas. Todas negam
essas acusações, mas o fundador da Meta, Mark Zuckerberg, e o presidente da
Snap, Evan Spiegel, foram intimados a depor pessoalmente.
O caso consolida centenas de ações movidas por pais
e distritos escolares e está entre os primeiros a avançar em meio a uma
enxurrada de processos semelhantes que alegam que as redes sociais contribuem
para problemas de saúde mental e exploração infantil.
Em outro processo em andamento, promotores
estaduais alegaram que Zuckerberg bloqueou pessoalmente iniciativas para
melhorar o bem-estar de adolescentes nas plataformas da Meta, incluindo vetar
uma proposta para eliminar filtros de beleza que alteram o rosto no Instagram,
recurso que especialistas dizem alimentar dismorfia corporal e transtornos
alimentares.
Os ex-funcionários da Meta Sarah Wynn-Williams,
Frances Haugen e Arturo Béjar prestaram depoimento ao Congresso dos EUA
alegando uma série de irregularidades que disseram ter presenciado durante seus
períodos na empresa.
A Meta sustenta que trabalha diligentemente para
criar ferramentas que mantenham os adolescentes seguros online.
Mas o setor mais amplo também tem sido questionado
recentemente sobre desinformação, informações incorretas, discurso de ódio e
conteúdo violento.
Imagens gráficas do assassinato de Charlie Kirk se espalharam rapidamente em
várias plataformas, chegando até a pessoas que não as procuravam. Elon Musk
processou estados nos EUA por leis que exigem que empresas de redes sociais,
incluindo o X, definam e divulguem como combatem o discurso de ódio online. E a
Meta foi duramente criticada no início deste ano após anunciar que iria
eliminar os verificadores de fatos que monitoram suas plataformas em busca de
informações falsas.
Um raro consenso bipartidário surgiu entre
parlamentares americanos ansiosos para conter o poder dos chefes de tecnologia.
Durante uma audiência no ano passado, Zuckerberg
foi pressionado por um deles a pedir desculpas às famílias enlutadas que
assistiam pessoalmente à sessão. Entre o público estava Tammy Rodriguez, cuja
filha de 11 anos, Selena, tirou a própria vida após sofrer exploração sexual no
Instagram e no Snapchat.
"É por isso que investimos tanto e vamos
continuar realizando esforços em toda a indústria para garantir que ninguém
tenha que passar pelas situações que suas famílias tiveram de enfrentar",
disse Zuckerberg.
Fiscalização pública e lobby privado
No entanto, especialistas, parlamentares, pais — e
até crianças — criticam de forma generalizada as empresas de redes sociais,
alegando que elas se esquivam de ações e responsabilidades concretas sobre
essas questões.
Enquanto a proibição australiana de redes sociais
era discutida e depois formulada, as empresas pouco se pronunciaram
publicamente.
"Esconder-se do debate público… isso só gera
mais suspeita e desconfiança", afirmou Scheeler.
Privadamente, muitas empresas, porém, buscaram
influenciar o governo. Spiegel se reuniu pessoalmente com a ministra das
Comunicações da Austrália, Anika Wells. Ela afirmou ainda que o YouTube teria
enviado os mundialmente conhecidos artistas infantis australianos The
Wiggles para fazer lobby em favor da empresa.
Em declarações públicas cuidadosamente elaboradas,
várias empresas tentaram transferir a responsabilidade para outros. Meta e Snap
afirmaram que os operadores das principais lojas de aplicativos — ou seja,
Apple e Google — deveriam assumir as funções de verificação de idade.
E muitos argumentaram que o governo está
extrapolando suas funções. "Os pais sabem o que é melhor", dizem, e
deveriam decidir o que faz sentido para seus adolescentes no uso de redes
sociais.
Além do limite de idade maior, de 16 anos, a
Austrália é a primeira jurisdição a negar uma exceção para aprovação parental
em uma política desse tipo, tornando suas leis as mais rígidas do mundo.
"Embora estejamos comprometidos em cumprir
nossas obrigações legais, temos levantado preocupações sobre esta lei de forma
consistente… Há uma maneira melhor: uma legislação que permita aos pais aprovar
downloads de aplicativos e verificar a idade possibilita que as famílias — e não
o governo — decidam quais apps os adolescentes podem acessar", afirmou a
Meta em comunicado à BBC.
Questionada sobre por que seu governo não se
mostrou receptivo a esse argumento, por que qualquer medida abaixo de uma
proibição seria inaceitável, Wells disse que as empresas de tecnologia tiveram
tempo de sobra para melhorar suas práticas.
"Eles já tiveram 15, 20 anos nesse setor para
fazer isso por iniciativa própria e… não foi suficiente."
Líderes de outros países compartilharam da mesma
opinião e têm buscado sua ajuda, disse ela, citando como exemplos a União
Europeia, Fiji, Grécia e até Malta.
Dinamarca e Noruega já começaram a trabalhar em
leis semelhantes, e Singapura também acompanha de perto. "Estamos felizes
por sermos os primeiros, orgulhosos de sermos os primeiros, e prontos para
ajudar qualquer outra jurisdição que queira fazer o mesmo", disse Wells.
No Brasil, o presidente Luiz Inácio Lula da Silva
sancionou em setembro deste ano o Estatuto Digital da Criança e do Adolescente
(conhecido como "ECA Digital"), que estabelece a responsabilidade de
empresas de tecnologia de proteger menores de 18 anos de conteúdos
prejudiciais. Além disso, determina que contas de menores de 16 anos em plataformas
devem ser vinculadas à conta de um responsável legal.
A regulação da lei, prevista para entrar em vigor
em março de 2026, ficará a cargo da Agência Nacional de Proteção de Dados
(ANPD).
Poucos meses antes, em junho deste ano, o Supremo
Tribunal Federal (STF) brasileiro ampliou a regulamentação de plataformas
digitais, definindo que empresas podem ser responsabilizadas por conteúdos
criminosos postados por terceiros.
Conteúdos graves, como mensagens antidemocráticas,
pornografia infantil e incentivo ao suicídio, devem ser removidos ativamente,
enquanto outros só precisam ser apagados após notificação.
Tarde demais?
À medida que a proibição australiana se aproximava,
a pressão crescente levou as empresas a lançar versões de seus produtos
anunciadas como mais seguras para jovens usuários, disse Pinar Yildirim,
professora de marketing da Wharton School da Universidade da Pensilvânia (EUA).
Afinal, a Austrália é um mercado importante para as
plataformas sociais. Em audiências parlamentares em outubro, a Snap Inc., dona
do Snapchat, afirmou ter cerca de 440 mil contas no país de usuários entre 13 e
15 anos. O TikTok disse ter aproximadamente 200 mil contas de menores de 16
anos, e a Meta afirmou ter cerca de 450 mil entre Facebook e Instagram.
Especialistas afirmam que as empresas também estão
interessadas em garantir que não percam usuários em mercados ainda maiores ao
redor do mundo.
Em julho, o YouTube anunciou a implementação de
tecnologia de inteligência artificial para estimar a idade dos usuários, na
tentativa de identificar menores de 18 anos e protegê-los melhor de conteúdos
prejudiciais.
O Snapchat possui contas especiais para crianças,
que, segundo a empresa, ativam por padrão configurações de segurança e privacidade
para usuários entre 13 e 17 anos.
No ano passado, a Meta lançou as contas Instagram
Teen, que de forma semelhante colocam usuários com menos de 18 anos em
configurações de privacidade e conteúdo mais restritivas, projetadas para
limitar contatos indesejados e exposição a conteúdos explícitos. Essa
iniciativa foi acompanhada por uma intensa campanha de marketing nos EUA.
"Se eles criarem um ambiente mais protegido
para esses usuários, a ideia é que isso possa reduzir parte dos danos",
disse Yildirim.
Ainda assim, os críticos não estão satisfeitos.
Béjar, um dos denunciantes da Meta, liderou um estudo publicado em setembro que
constatou que quase dois terços das novas ferramentas de segurança nas contas
Instagram Teen da Meta eram ineficazes.
"O ponto central é que a Meta e outras
empresas de redes sociais não estão abordando de forma substancial os danos que
sabemos que os adolescentes estão enfrentando", disse Béjar à BBC.
Colocadas na defensiva, as empresas tentaram
transmitir que estão fazendo um esforço de boa-fé para cumprir a iminente
proibição australiana, apesar de discordarem dela.
Mas analistas dizem que elas provavelmente esperam
que os obstáculos — incluindo desafios legais, brechas tecnológicas para
crianças e quaisquer consequências não intencionais da proibição — possam
fortalecer o argumento contra medidas semelhantes em outros países.
E as empresas "têm uma boa dose de influência
sobre o andamento das coisas", observa o professor Fast.
"[Elas] têm incentivo para caminhar na linha
tênue entre cumprir a lei e garantir que não cumpram tão bem a ponto de os
outros países pensarem: 'Ótimo, isso funciona. Vamos fazer o mesmo'",
concorda Scheeler.
E as multas — de até A$ 49,5 milhões (cerca de
R$ 178 milhões) por infrações graves — podem ser vistas apenas como o custo de
fazer negócios, segundo Ari Lightman, professor de marketing da Carnegie Mellon
University. "[Elas] são uma gota no oceano", disse ele, especialmente
para empresas maiores que querem garantir a próxima geração de usuários em
potencial.
Apesar das preocupações sobre a implementação da
política, Scheeler disse que vê isso como um "momento do cinto de
segurança" para as redes sociais.
"Alguns diriam que uma regulamentação ruim é
pior do que nenhuma regulamentação, e às vezes isso é verdade, mas acredito
que, neste caso, mesmo uma regulamentação imperfeita é melhor do que nada, ou
melhor do que tínhamos antes", disse ele.
"Talvez funcione, talvez não funcione, mas pelo menos estamos tentando algo."
(Fonte:
BBC)



Nenhum comentário:
Postar um comentário