A plataforma de vídeos mais popular do
mundo tem um problema sério com seu conteúdo: usuários têm publicado centenas
de vídeos com crianças em situações íntimas, violentas ou humilhantes e
conseguido milhares de visualizações com a exploração dessas imagens.
Apesar do YouTube ter anunciado no fim
do ano passado a retirada de 150 mil vídeos chocantes envolvendo menores e o
cancelamento de alguns canais, ainda é possível encontrar centenas de
publicações com conteúdo impróprio envolvendo crianças ou voltadas para elas.
Há centenas de vídeos que contêm
crianças chorando, gritando de medo e claramente aterrorizadas. Há imagens de
meninas com roupas de banho em posições em que suas partes íntimas ficam em
evidência. Outras mostram situações escatológicas envolvendo fezes, vômito,
cuspe e urina.
Em muitos casos, os pequenos são
perseguidos por pessoas em roupas de palhaço e outras fantasias assustadoras,
são amarrados e alvo de imitações de situações de sequestro. Há crianças
tomando injeções ou sangrando ao terem o dente removido, centenas de pegadinhas
violentas e perigosas e até vídeos com simulação de suicídio.
Há também uma série de vídeos que imitam
desenhos infantis, mas contém palavreado impróprio, violência e
situações de cunho sexual - sem nenhum aviso de que o conteúdo é impróprio para
menores.
As imagens imitam animações infantis
como a Peppa Pig, Thomas, a Locomotiva a Vapor e filmes como Frozen e Meu Malvado Favorito,
entre outros.
A plataforma tem um filtro, o YouTube
Kids, cujos controles são mais rígidos para proteger as crianças da exposição a
conteúdo do tipo. Mas, muitas vezes, por serem muito parecidos ou por terem
problemas apenas no áudio, os desenhos impróprios acabam furando esse controle.
O problema da republicação - Muitos dos
vídeos impróprios voltados para crianças ou com crianças em situações abusivas
vêm de canais verificados e acumulam milhões de visualizações. Em uma tentativa
de conter o problema, o YouTube cancelou diversos destes canais no último ano.
Um dos maiores, o Toy Freaks, tinha 8
milhões de inscritos, 7 bilhões de visualizações acumuladas e recebia
reclamações dos usuários há anos.
No canal, o pai de duas garotas mostrava
as filhas gritando de medo, cuspindo e urinando umas nas outras, sendo
alimentadas à força, tomando banho e fingindo serem bebês. Mas mesmo com a
retirada do canal, ainda é possível encontrar alguns dos vídeos, que foram
salvos e republicados por outros usuários.
O ToyFreaks era um dos canais que
ganhavam dinheiro com os vídeos abusivos - por meio do pagamento pela
veiculação de anúncios antes dos vídeos com muitas visualizações. Mas não é
raro que outros canais verificados tenham casos de vídeos que colocam crianças
em situações perigosas e abusivas.
Pegadinhas extremamente violentas e
assustadoras para crianças são uma das categorias mais comuns. Em um vídeo de
um canal verificado, por exemplo, duas crianças pequenas gritam de medo e
choram ao serem perseguidas por palhaços assustadores.
Em um vídeo de outro canal, duas meninas
pequenas são mostradas no banheiro, usando a privada, até que aparece um
palhaço assustador. Depois, uma delas é mostrada chorando de medo.
Espiral do abuso - Muitos dos vídeos são
feitos e postados pelas próprias famílias das crianças. Ao perceber que certo
tipo de vídeo atrai mais público, alguns canais que lucram com o número de
visualizações acabam produzindo mais conteúdo do tipo para satisfazer a
audiência.
"O conteúdo vai se tornando cada
vez mais bizarro", explica Rodrigo Nejm, diretor de educação da ong
Safernet, que monitora e promove direitos humanos na internet. "Conteúdo
humilhante e brincadeiras em que as pessoas não estão de acordo vão criando uma
banalização da violência."
Os donos do canal DaddyOFive, já
cancelado pelo YouTube, chegaram a perder
a guarda de dois dos filhos por causa de pegadinhas. Mas os
casos emblemáticos em que houve alguma punição, como os dos canais DaddyOFive e
Toy Freaks, não impedem que mais centenas de vídeos parecidos sejam subidos
diariamente para a plataforma.
Nejm, da Safernet, explica que conteúdos
explicitamente pornográficos (com nudez ou sexo explícito) ou com violência
muito evidente, como com muito sangue, são automaticamente bloqueados pelos
filtros do YouTube.
O problema são conteúdos abusivos que
não são automaticamente detectados pela plataforma, mas que podem ser
chocantes. "As pessoas têm que lembrar que,
ainda que o conteúdo não seja explicitamente criminoso, mesmo assim pode ter o
uso indevido de imagem de um menor de idade", diz ele.
Para a psicóloga Ceneide Cerveny, da
PUC-SP, as situações em que as crianças são colocadas podem afetá-las no longo
prazo - o que é piorado quando os criadores dos vídeos são os pais. "Para a criança ofendida,
assustada, sempre faz mal. Ela pode perder a confiança nos pais, que deveriam
ser responsáveis por sua segurança. É muito sério quando é um pai assustando
com conivência da mãe. Ambos são irresponsáveis e sem condições de serem pais,
fazendo isso para ganhar dinheiro e fama", diz.
"As brincadeiras abusivas trazem
consequências como medo, estresse, insônia, falta de confiança nos adultos e
principalmente a vergonha da exposição a que estão sujeitos", acrescenta.
"O problema é o responsável legal
que permite a exposição pública dessa criança. Por isso que a gente insiste na
importância de conscientizar o público. Às vezes os pais não têm nem ideia da
repercussão que um vídeo pode ter. Dois, três anos depois, ele pode se tornar
um conteúdo que vai motivar um cyberbullying contra a criança", diz Nejm.
Predadores sexuais - Em alguns casos, a
própria plataforma indica esses vídeos perturbadores: o algoritmo que controla
as indicações no YouTube mostra na aba lateral publicações parecidas com o que
o usuário está vendo.
Boa parte do problema está aí. Algumas
das indicações de animações com linguagem imprópria e sem informação de que o conteúdo
é inadequado para menores, por exemplo, aparecem se você está vendo vídeos de
desenhos animados de verdade.
Esse sistema de indicação automática
acaba criando um submundo de vídeos chocantes. A partir do momento em que o
algoritmo percebe que um usuário costuma ver esse tipo de conteúdo com
crianças, passa a alimentar esse gosto com vídeos parecidos.
É por meio das sugestões que é possível
perceber tendências problemáticas - e até indícios de pedofilia. Alguns vídeos
são em si, inocentes. Há dezenas deles que mostram meninas pequenas fazendo
ginástica, por exemplo. Mas as imagens em destaque de todos os vídeos
relacionados indicados ao lado são das meninas em posições de vulnerabilidade,
como com as pernas abertas.
"Há um fator de risco ao expor uma
criança na internet. Um conteúdo que a priori não é pornográfico pode se
tornar. Uma criança quando se filma não tem erotismo, mas quando (o vídeo) é
exposto na maior praça pública, está aberto a todo tipo de consumo",
afirma Rodrigo Nejm, da Safernet. Os vídeos também têm dezenas de
comentários predatórios e com conteúdo sexual direcionado às crianças.
Em um dos casos - subido em um canal
brasileiro - uma menina pequena pula na chuva com uma roupa branca. Um dos
comentários diz: "dá para ver o peitinho dela hahah te adoro". Em outra filmagem subida no mesmo canal,
a mesma criança dança pole dance ao redor de um poste vestindo um shorts
e um top. "Já sabe subi (sic) no pau", diz um usuário.
Boa parte das imagens com crianças
pequenas nessas situações são subidas com datas aleatórias como título - um
"nicho" que inclui centenas de vídeos com meninas pequenas em roupas
íntimas, em roupas de banho ou com a calcinha aparecendo.
Alguns têm milhares ou milhões de
visualizações. Um vídeo de 5 minutos de uma garota pequena filmada com as
pernas abertas fazendo ginástica, por exemplo, foi assistido 1,8 milhão de
vezes.
Volume de dados - Depois de ser
questionado pela BBC sobre o conteúdo, o YouTube retirou diversos dos vídeos do
ar e desabilitou a seção de comentários em outros. O site tem tentado combater o problema
mais agressivamente desde o ano passado, quando finalmente tirou do ar diversos
canais que recebiam reclamações de usuários havia anos.
O YouTube diz que leva a segurança das
crianças muito a sério e que reforçou suas políticas sobre quais conteúdos são
adequados para a plataforma ou que podem gerar receita pela exibição de
anúncios.
"Investimos em nossos times e na
tecnologia de machine learning para ampliar os esforços dos
nossos revisores humanos em escala. Estamos aplicando o que aprendemos no
combate a conteúdo extremista e violento no combate a conteúdo problemático,
incluindo discurso de ódio e segurança das crianças", diz a empresa, em
nota.
A plataforma afirma também que sua
equipe "trabalha muito próxima ao NCMEC (Centro Nacional para Crianças
Desaparecidas e Exploradas, entidade americana), IWF (Internet Watch
Foundation), e outras organizações de segurança à criança ao redor do mundo,
para relatar o comportamento e contas predatórias aos órgãos judiciários
competentes."
Qualquer pessoa pode chamar a atenção da
plataforma para um conteúdo impróprio - basta clicar no menu de três pontinhos
abaixo do vídeo e selecionar "Denunciar". No entanto, nem sempre os
usuários tem resposta sobre o caso e muitas vezes são necessárias várias
reclamações para um vídeo ser retirado do ar. "Muitas vezes é uma linha
tênue entre o que é uma situação normal e uma abusiva", afirma Nejm.
O Google, que é dono do YouTube,
reconhece a importância de revisores humanos para tomar decisões contextualizadas
sobre o conteúdo. A empresa diz que tem ampliando sua equipe e que deve elevar,
em 2018, para mais de 10 mil o número de pessoas trabalhando para encontrar
conteúdos que possam violar suas políticas.
Receitas e anúncios - Além de críticas
de usuários e especialistas, a reclamação e até finalização de contratos de
anunciantes que tinham suas propagandas exibidas
antes de vídeos impróprios - inclusive em filmes de grupos
extremistas - também contribuiu para que a plataforma tomasse uma postura mais
agressiva em relação à moderação do conteúdo.
O site diz que tem adotado medidas para
proteger os anunciantes, como critérios mais rígidos e mais curadoria manual.
"Queremos que os anunciantes tenham a tranquilidade de ter seus anúncios
rodando ao lado de conteúdos que reflitam seus valores de marca. Igualmente,
queremos dar aos criadores confiança de que sua receita não será prejudicada
pelas ações questionáveis de alguns", afirma o YouTube.
"Diante do volume de dados, e
diante do tamanho do problema, também é preciso que haja estratégias mais
massivas de conscientização do público", defende Rodrigo Nejm, da
Safernet.
"É preciso educar melhor o usuário
para ele perceber quando acaba alimentando esse tipo de conteúdo. Há diversas
situações que são banalidades do cotidiano às quais as pessoas acabam se
atraindo. É preciso pensar, no entanto, em quem está promovendo isso. Se o
canal explicitamente tem muitos vídeos do tipo, é possível suspeitar que tem
algo de errado." (BBC)
Nenhum comentário:
Postar um comentário