Ao fazer perguntas a vários chatbots, eles tentaram chamar as IAs de "inteligentes", incentivá-las a pensar com cuidado e até terminar as perguntas com "isso vai ser divertido!".
Nada disso fez diferença de forma consistente, mas
uma técnica se destacou. Quando pediram que a
inteligência artificial fingisse estar em Star Trek – Jornada nas
Estrelas, ela passou a se sair melhor em matemática básica.
As pessoas usam todo tipo de estratégia curiosa para
tentar obter respostas melhores de grandes modelos de linguagem (LLMs, na sigla
em inglês), a tecnologia de IA por trás de ferramentas como o ChatGPT.
Alguns juram que a IA responde melhor se for ameaçada; outros acreditam que os
chatbots são mais cooperativos quando os tratamos com educação; e há quem peça aos robôs que
interpretem o papel de especialistas no tema sobre o qual estão trabalhando.
A lista é interminável. Isso faz parte da mitologia
em torno da "engenharia de prompts" ou "engenharia de
contexto", diferentes maneiras de estruturar instruções para que a IA
produza resultados melhores.
O problema é que especialistas dizem que muito do
que se acredita sobre como formular prompts simplesmente não funciona. Em
alguns casos, pode até ser perigoso. Ainda assim, a forma como você fala com
uma IA importa, e algumas técnicas realmente fazem diferença.
"Muitas pessoas acreditam que há uma
combinação mágica de palavras capaz de fazer os LLMs resolverem um
problema", afirma Jules White, professor de ciência da computação que
pesquisa IA generativa na Universidade Vanderbilt (EUA). "Mas a questão
não é a escolha das palavras, e sim a maneira como você formula o que está
tentando fazer."
Cuidado com as maneiras?
Em 2025, um usuário do X (ex-Twitter) escreveu:
"Fico imaginando quanto dinheiro a OpenAI já perdeu em custos de
eletricidade por causa de pessoas dizendo 'por favor' e 'obrigado' aos
modelos".
Sam Altman, diretor-executivo da OpenAI, criadora
do ChatGPT, respondeu: "Dezenas de milhões de dólares muito bem gastos. Nunca
se sabe".
A maioria das pessoas interpretou essa resposta como uma referência bem-humorada à possibilidade de um eventual apocalipse da IA, embora seja difícil saber até que ponto esse número de "dezenas de milhões de dólares" deve ser levado ao pé da letra. Mas a educação também é uma questão prática.
Os grandes modelos de linguagem (LLMs) funcionam
dividindo suas palavras em pequenos blocos chamados "tokens", antes
de analisá-los com base em estatísticas para gerar uma resposta adequada.
Isso significa que cada detalhe do que você
escreve, da escolha das palavras a uma vírgula extra, pode influenciar a forma
como a IA responde. O problema é que isso é extremamente difícil de prever.
Diversos estudos já tentaram identificar padrões em
pequenas mudanças nos prompts usados com IA, mas muitas das evidências são
contraditórias ou inconclusivas.
Por exemplo, um estudo de
2024 constatou que LLMs deram respostas melhores e mais
precisas quando as perguntas eram feitas de forma educada, em vez de apenas
como comandos.
De forma ainda mais curiosa, houve diferenças
culturais. Em comparação com o chinês e o inglês, chatbots que se comunicavam
em japonês tiveram um desempenho ligeiramente pior quando o usuário era
excessivamente educado.
Mas não saia correndo para agradecer à IA. Um pequeno
teste mostrou que uma versão anterior do ChatGPT era, na
verdade, mais precisa quando recebia insultos.
E, no geral, ainda não há pesquisas suficientes
sobre o tema para conclusões definitivas. Além disso, empresas de tecnologia
atualizam constantemente seus chatbots, o que faz com que os resultados de
estudos fiquem rapidamente desatualizados.
Especialistas afirmam que os modelos de IA
evoluíram drasticamente em poucos anos, tornando estratégias como bajular, ser
educado, insultar ou ameaçar praticamente uma perda de tempo se o objetivo for
obter respostas mais precisas.
"Era 100% um tiro no escuro naquela
época", diz Rick Battle, engenheiro de aprendizado de máquina aplicado da
Broadcom e coautor do estudo sobre Star Trek.
Embora o estudo tenha sido realizado em 2024, as
coisas já mudaram. Hoje, Battle e outros especialistas afirmam que os modelos
de IA mais recentes encontrados em produtos populares como ChatGPT, Gemini ou
Claude conseguem identificar melhor as partes mais importantes do prompt.
Provavelmente não serão influenciados por pequenas
mudanças na linguagem, pelo menos não de forma consistente que possa ser
explorada.
A conclusão é inquietante à sua maneira. Empresas
projetam IAs como o ChatGPT ou o Gemini, do Google, para se comportarem como
pessoas, por isso às vezes parecem ter humores que podem ser administrados ou
personalidades que podem ser direcionadas.
Mas não se engane. Ferramentas de IA são
imitadoras, não seres vivos. Elas apenas simulam o comportamento humano.
Se você quer respostas melhores, pare de tratar a
IA como uma pessoa e comece a tratá-la como uma ferramenta.
Como falar com seu chatbot
Existem problemas reais relacionados à inteligência
artificial, desde preocupações éticas até o impacto ambiental que ela pode
causar.
Algumas pessoas preferem não usar essa tecnologia.
Mas, se você vai utilizar modelos de LLMs, aprender a conseguir o que quer de
forma mais rápida e eficiente pode ser melhor para você, e também para o
consumo de energia. Estas 6 dicas podem ajudar.
1. Peça várias opções
"A primeira coisa que digo às pessoas é: não
peça apenas uma resposta, peça três ou cinco", afirma White.
Se você quer ajuda com um texto, por exemplo, peça
que a IA apresente várias opções que variem em algum aspecto importante.
"Isso faz com que a pessoa volte a se envolver e pense sobre o que gosta e
por quê."
2. Dê exemplos
Sempre que possível, forneça um exemplo para a IA. "Por
exemplo, vejo pessoas pedirem a um LLM para escrever um email e depois ficarem
frustradas porque dizem: 'isso não soa nada como eu'", diz White.
O impulso natural é responder com uma lista de
instruções de "faça isso" ou "não faça aquilo". White afirma
que é muito mais eficaz dizer: "aqui estão 10 emails que enviei no
passado, use meu estilo de escrita".
3. Peça uma entrevista
"Digamos que você queira criar uma descrição
de vaga de emprego. Diga à IA: 'Quero que você me faça perguntas, uma de cada
vez, até reunir informações suficientes para escrever um anúncio de emprego
convincente'", diz White.
"Fazendo isso pergunta por pergunta, ela pode
se adaptar às suas respostas."
4. Tenha cuidado com encenações de papel
"Antes havia a ideia de que, se você dissesse
à IA que ela é, por exemplo, um professor de matemática, ela teria mais
precisão ao responder perguntas de matemática", afirma Sander Schulhoff,
empreendedor e pesquisador que ajudou a popularizar o conceito de engenharia de
prompts.
Mas se você está buscando uma informação ou quer
fazer uma pergunta com uma única resposta correta, Schulhoff e outros
especialistas dizem que esse tipo de encenação pode tornar os modelos de
IA menos precisos.
"Isso pode até ser perigoso", afirma
Battle. "Você está incentivando a chamada alucinação, porque diz ao
sistema que ele é um especialista e deve confiar em seu conhecimento interno
parametrizado."
Em essência, isso pode fazer a IA parecer
excessivamente confiante.
Por outro lado, para tarefas abertas, sem uma única
resposta correta, a encenação pode ser eficaz, como em pedidos de
conselho, sessões de brainstorming ou na resolução criativa de problemas.
Se você está nervoso com entrevistas de emprego,
pedir a um chatbot que imite um recrutador pode ser um bom treino, embora seja
importante consultar outras fontes também.
5. Mantenha a neutralidade
"Não conduza a resposta", diz Battle.
Se você está tentando decidir entre dois carros,
por exemplo, não diga que está inclinado a escolher um Toyota.
"Caso contrário, essa provavelmente será a
resposta que você vai receber."
6. 'Por favor' e 'obrigado'
Segundo uma pesquisa do Pew Research Center, de 2019,
mais da metade dos americanos diz "por favor" ao falar com seus
assistentes de voz. Essa tendência parece ter continuado. Um levantamento de 2025 da editora Future
mostrou que 70% das pessoas são educadas com a IA quando a utilizam.
A maioria afirma que age assim simplesmente porque
é o correto a fazer, embora 12% digam que fazem isso para se proteger no caso
de uma revolta de robôs.
A educação talvez não proteja ninguém de robôs
furiosos nem torne os LLMs mais precisos, mas há outros motivos para continuar
agindo assim.
"Para mim, o principal é que dizer 'por favor'
e 'obrigado' pode fazer com que você se sinta mais confortável ao interagir com
a IA", diz Schulhoff. "Isso não melhora o desempenho do modelo, mas,
se ajuda você a usar o sistema com mais frequência porque se sente mais à
vontade, então é útil."
Também é preciso considerar a própria natureza
humana. O filósofo Immanuel Kant argumentava que uma das razões para não sermos
cruéis com os animais é que isso também nos prejudica. Em essência, agir de
forma hostil com qualquer coisa pode tornar a pessoa mais dura.
Você não pode ferir os sentimentos de uma IA,
porque ela não tem sentimentos. Ainda assim, talvez valha a pena ser educado. É
um hábito que pode trazer benefícios para outras áreas da sua vida.
(Fonte:
BBC)



Nenhum comentário:
Postar um comentário