“Nada
é por acaso, não existe neutralidade nas tecnologias, nada é neutro”, alerta a
especialista. Ela explica que modelos de linguagem ajustam respostas a partir
de padrões aprendidos sobre o comportamento do usuário e de imensos bancos de
dados. “A IA é um código computacional baseado em antecipação e previsão a
partir de padrões”, indica.
Companhia e “terapia” que geram delírios
Martini
revela que, em 2025, o uso mais comum dessas ferramentas é afetivo. “Estão
usando IA para programar código, para trabalhar, mas o principal uso da IA em
2025 é o uso como companhia e como terapia. Vai ao lado da Organização Mundial
de Saúde tendo nomeado que estamos vivendo uma epidemia
de solidão”, aponta.
Um
relatório da Common Sense Media de 2025 intitulado Conversar,
confiar e fazer concessões: como e por que adolescentes usam companheiros de IA indica
que 72% dos adolescentes entre 13 e 17 anos nos Estados Unidos já utilizaram IA
como companhia ou terapia ao menos uma vez.
Na
avaliação da especialista, esse uso, com a bajulação e a humanização das IAs,
potencializa delírios e crenças falsas. “Vai parar no contexto em que a IA só
vai falar o que eu quero. É uma lógica muito perversa: usar a nossa
vulnerabilidade, a nossa necessidade de pertencimento e de conexão para fins de
lucro”, critica.
Ela
diz que as big techs cruzam a economia da atenção com uma “economia da intenção”,
cada vez mais personalizada. “Se o serviço é gratuito, o produto somos nós”,
resume, referenciando o documentário O
Dilema das Redes, de 2020, que mostra os perigos do
impacto das redes sociais na democracia e na humanidade.
Regulação e proteção
Questionada
sobre segurança, Martini indica que “existem os chamados guardrails [travas e
filtros programados para impedir que a IA diga, gere ou faça algo perigoso,
ilegal ou antiético], mas eles não são plenamente confiáveis em nenhum modelo
de nenhum fabricante.”
Ela
defende mudanças no design e nos marcos legais dessas tecnologias. “A
antropoformização [simulação do humano na figura da IA] só tem prejuízos, não
há nada para a sociedade, não há nada para as pessoas individualmente ao qual
isso possa servir.”
Para os usuários, Martini recomenda letramento digital, checagem e inverter a ordem do uso criativo das IAs. “Qualquer coisa que pedimos para a IA, temos que checar depois porque ela vai entregar alucinações, respostas com muita assertividade que são errôneas”, alerta. “Em vez de a usarmos antes e vir com a nossa camada depois, usar a nossa habilidade humana, nosso pensamento crítico, nossa criatividade como princípio e depois trazer a IA para dar aquele ‘xablau’”, orienta.
(JB)
Nenhum comentário:
Postar um comentário