quinta-feira, 1 de fevereiro de 2018

O submundo dos vídeos que humilham e expõem crianças no YouTube

A plataforma de vídeos mais popular do mundo tem um problema sério com seu conteúdo: usuários têm publicado centenas de vídeos com crianças em situações íntimas, violentas ou humilhantes e conseguido milhares de visualizações com a exploração dessas imagens.

Apesar do YouTube ter anunciado no fim do ano passado a retirada de 150 mil vídeos chocantes envolvendo menores e o cancelamento de alguns canais, ainda é possível encontrar centenas de publicações com conteúdo impróprio envolvendo crianças ou voltadas para elas.

Há centenas de vídeos que contêm crianças chorando, gritando de medo e claramente aterrorizadas. Há imagens de meninas com roupas de banho em posições em que suas partes íntimas ficam em evidência. Outras mostram situações escatológicas envolvendo fezes, vômito, cuspe e urina.

Em muitos casos, os pequenos são perseguidos por pessoas em roupas de palhaço e outras fantasias assustadoras, são amarrados e alvo de imitações de situações de sequestro. Há crianças tomando injeções ou sangrando ao terem o dente removido, centenas de pegadinhas violentas e perigosas e até vídeos com simulação de suicídio.

Há também uma série de vídeos que imitam desenhos infantis, mas contém palavreado impróprio, violência e situações de cunho sexual - sem nenhum aviso de que o conteúdo é impróprio para menores.

As imagens imitam animações infantis como a Peppa PigThomas, a Locomotiva a Vapor e filmes como Frozen Meu Malvado Favorito, entre outros.

A plataforma tem um filtro, o YouTube Kids, cujos controles são mais rígidos para proteger as crianças da exposição a conteúdo do tipo. Mas, muitas vezes, por serem muito parecidos ou por terem problemas apenas no áudio, os desenhos impróprios acabam furando esse controle.

O problema da republicação - Muitos dos vídeos impróprios voltados para crianças ou com crianças em situações abusivas vêm de canais verificados e acumulam milhões de visualizações. Em uma tentativa de conter o problema, o YouTube cancelou diversos destes canais no último ano.

Um dos maiores, o Toy Freaks, tinha 8 milhões de inscritos, 7 bilhões de visualizações acumuladas e recebia reclamações dos usuários há anos.

No canal, o pai de duas garotas mostrava as filhas gritando de medo, cuspindo e urinando umas nas outras, sendo alimentadas à força, tomando banho e fingindo serem bebês. Mas mesmo com a retirada do canal, ainda é possível encontrar alguns dos vídeos, que foram salvos e republicados por outros usuários.

O ToyFreaks era um dos canais que ganhavam dinheiro com os vídeos abusivos - por meio do pagamento pela veiculação de anúncios antes dos vídeos com muitas visualizações. Mas não é raro que outros canais verificados tenham casos de vídeos que colocam crianças em situações perigosas e abusivas.

Pegadinhas extremamente violentas e assustadoras para crianças são uma das categorias mais comuns. Em um vídeo de um canal verificado, por exemplo, duas crianças pequenas gritam de medo e choram ao serem perseguidas por palhaços assustadores.

Em um vídeo de outro canal, duas meninas pequenas são mostradas no banheiro, usando a privada, até que aparece um palhaço assustador. Depois, uma delas é mostrada chorando de medo.
Espiral do abuso - Muitos dos vídeos são feitos e postados pelas próprias famílias das crianças. Ao perceber que certo tipo de vídeo atrai mais público, alguns canais que lucram com o número de visualizações acabam produzindo mais conteúdo do tipo para satisfazer a audiência.

"O conteúdo vai se tornando cada vez mais bizarro", explica Rodrigo Nejm, diretor de educação da ong Safernet, que monitora e promove direitos humanos na internet. "Conteúdo humilhante e brincadeiras em que as pessoas não estão de acordo vão criando uma banalização da violência."

Os donos do canal DaddyOFive, já cancelado pelo YouTube, chegaram a perder a guarda de dois dos filhos por causa de pegadinhas. Mas os casos emblemáticos em que houve alguma punição, como os dos canais DaddyOFive e Toy Freaks, não impedem que mais centenas de vídeos parecidos sejam subidos diariamente para a plataforma.

Nejm, da Safernet, explica que conteúdos explicitamente pornográficos (com nudez ou sexo explícito) ou com violência muito evidente, como com muito sangue, são automaticamente bloqueados pelos filtros do YouTube.

O problema são conteúdos abusivos que não são automaticamente detectados pela plataforma, mas que podem ser chocantes. "As pessoas têm que lembrar que, ainda que o conteúdo não seja explicitamente criminoso, mesmo assim pode ter o uso indevido de imagem de um menor de idade", diz ele.

Para a psicóloga Ceneide Cerveny, da PUC-SP, as situações em que as crianças são colocadas podem afetá-las no longo prazo - o que é piorado quando os criadores dos vídeos são os pais. "Para a criança ofendida, assustada, sempre faz mal. Ela pode perder a confiança nos pais, que deveriam ser responsáveis por sua segurança. É muito sério quando é um pai assustando com conivência da mãe. Ambos são irresponsáveis e sem condições de serem pais, fazendo isso para ganhar dinheiro e fama", diz.

"As brincadeiras abusivas trazem consequências como medo, estresse, insônia, falta de confiança nos adultos e principalmente a vergonha da exposição a que estão sujeitos", acrescenta.

"O problema é o responsável legal que permite a exposição pública dessa criança. Por isso que a gente insiste na importância de conscientizar o público. Às vezes os pais não têm nem ideia da repercussão que um vídeo pode ter. Dois, três anos depois, ele pode se tornar um conteúdo que vai motivar um cyberbullying contra a criança", diz Nejm.

Predadores sexuais - Em alguns casos, a própria plataforma indica esses vídeos perturbadores: o algoritmo que controla as indicações no YouTube mostra na aba lateral publicações parecidas com o que o usuário está vendo.

Boa parte do problema está aí. Algumas das indicações de animações com linguagem imprópria e sem informação de que o conteúdo é inadequado para menores, por exemplo, aparecem se você está vendo vídeos de desenhos animados de verdade.

Esse sistema de indicação automática acaba criando um submundo de vídeos chocantes. A partir do momento em que o algoritmo percebe que um usuário costuma ver esse tipo de conteúdo com crianças, passa a alimentar esse gosto com vídeos parecidos.

É por meio das sugestões que é possível perceber tendências problemáticas - e até indícios de pedofilia. Alguns vídeos são em si, inocentes. Há dezenas deles que mostram meninas pequenas fazendo ginástica, por exemplo. Mas as imagens em destaque de todos os vídeos relacionados indicados ao lado são das meninas em posições de vulnerabilidade, como com as pernas abertas.

"Há um fator de risco ao expor uma criança na internet. Um conteúdo que a priori não é pornográfico pode se tornar. Uma criança quando se filma não tem erotismo, mas quando (o vídeo) é exposto na maior praça pública, está aberto a todo tipo de consumo", afirma Rodrigo Nejm, da Safernet. Os vídeos também têm dezenas de comentários predatórios e com conteúdo sexual direcionado às crianças.

Em um dos casos - subido em um canal brasileiro - uma menina pequena pula na chuva com uma roupa branca. Um dos comentários diz: "dá para ver o peitinho dela hahah te adoro". Em outra filmagem subida no mesmo canal, a mesma criança dança pole dance ao redor de um poste vestindo um shorts e um top. "Já sabe subi (sic) no pau", diz um usuário.

Boa parte das imagens com crianças pequenas nessas situações são subidas com datas aleatórias como título - um "nicho" que inclui centenas de vídeos com meninas pequenas em roupas íntimas, em roupas de banho ou com a calcinha aparecendo.

Alguns têm milhares ou milhões de visualizações. Um vídeo de 5 minutos de uma garota pequena filmada com as pernas abertas fazendo ginástica, por exemplo, foi assistido 1,8 milhão de vezes.
Volume de dados - Depois de ser questionado pela BBC sobre o conteúdo, o YouTube retirou diversos dos vídeos do ar e desabilitou a seção de comentários em outros. O site tem tentado combater o problema mais agressivamente desde o ano passado, quando finalmente tirou do ar diversos canais que recebiam reclamações de usuários havia anos.

O YouTube diz que leva a segurança das crianças muito a sério e que reforçou suas políticas sobre quais conteúdos são adequados para a plataforma ou que podem gerar receita pela exibição de anúncios.

"Investimos em nossos times e na tecnologia de machine learning para ampliar os esforços dos nossos revisores humanos em escala. Estamos aplicando o que aprendemos no combate a conteúdo extremista e violento no combate a conteúdo problemático, incluindo discurso de ódio e segurança das crianças", diz a empresa, em nota.

A plataforma afirma também que sua equipe "trabalha muito próxima ao NCMEC (Centro Nacional para Crianças Desaparecidas e Exploradas, entidade americana), IWF (Internet Watch Foundation), e outras organizações de segurança à criança ao redor do mundo, para relatar o comportamento e contas predatórias aos órgãos judiciários competentes."

Qualquer pessoa pode chamar a atenção da plataforma para um conteúdo impróprio - basta clicar no menu de três pontinhos abaixo do vídeo e selecionar "Denunciar". No entanto, nem sempre os usuários tem resposta sobre o caso e muitas vezes são necessárias várias reclamações para um vídeo ser retirado do ar. "Muitas vezes é uma linha tênue entre o que é uma situação normal e uma abusiva", afirma Nejm.

O Google, que é dono do YouTube, reconhece a importância de revisores humanos para tomar decisões contextualizadas sobre o conteúdo. A empresa diz que tem ampliando sua equipe e que deve elevar, em 2018, para mais de 10 mil o número de pessoas trabalhando para encontrar conteúdos que possam violar suas políticas.

Receitas e anúncios - Além de críticas de usuários e especialistas, a reclamação e até finalização de contratos de anunciantes que tinham suas propagandas exibidas antes de vídeos impróprios - inclusive em filmes de grupos extremistas - também contribuiu para que a plataforma tomasse uma postura mais agressiva em relação à moderação do conteúdo.

O site diz que tem adotado medidas para proteger os anunciantes, como critérios mais rígidos e mais curadoria manual. "Queremos que os anunciantes tenham a tranquilidade de ter seus anúncios rodando ao lado de conteúdos que reflitam seus valores de marca. Igualmente, queremos dar aos criadores confiança de que sua receita não será prejudicada pelas ações questionáveis de alguns", afirma o YouTube.

"Diante do volume de dados, e diante do tamanho do problema, também é preciso que haja estratégias mais massivas de conscientização do público", defende Rodrigo Nejm, da Safernet.

"É preciso educar melhor o usuário para ele perceber quando acaba alimentando esse tipo de conteúdo. Há diversas situações que são banalidades do cotidiano às quais as pessoas acabam se atraindo. É preciso pensar, no entanto, em quem está promovendo isso. Se o canal explicitamente tem muitos vídeos do tipo, é possível suspeitar que tem algo de errado." (BBC)





Nenhum comentário:

Postar um comentário