Transformando o futuro com educação e inovação
Home | Newsletter | Curso | Livro | Sobre mim
Até aqui analisamos os principais problemas relacionados aos modelos de linguagem que impactam negativamente os resultados. Existem problemas inerentes ao desenvolvimento deles, como os vieses relacionados à base de treinamento, e problemas funcionais como o contexto semântico e a janela de contexto. Neste último episódio da série, veremos dois dos principais erros associados ao usuário. Onde nós mais erramos ao usar a IA!
Como vimos nos episódios anteriores, a falta de conhecimento sobre o funcionamento dos modelos de linguagem e de suas limitações pode levar a erros. Mas existem dois problemas recorrentes associados aos hábitos dos usuários que também causam frustração. O primeiro deles é a falta de interação.
Muitas vezes, reproduzimos nos modelos de linguagem o nosso comportamento no Google. Fazemos uma pergunta e esperamos a resposta correta. Mas, são modos de operação diferentes. No Google, você faz uma pergunta e recebe uma lista de sites nos quais pode encontrar a resposta. Para isso, tem que ler o resumo dos sites, ou mesmo acessá-los, ler o conteúdo e elaborar a sua própria resposta. É necessário esforço mental e gasto de energia. A IA é mais cômoda, ela elabora a resposta para você, baseada no conhecimento intrínseco dela (derivado de base de treinamento), complementado ou não por informações da internet (se o aplicativo tiver este recurso).
No entanto, uma pergunta isolada pode não ter os elementos mínimos necessários para uma boa resposta, como o contexto (semântico) e a tarefa bem detalhada. A solução não é refazer a pergunta, mas interagir com a IA, para construir junto com ela a melhor resposta possível. Não existe uma fórmula mágica. Você só vai conseguir uma boa resposta com uma única pergunta se ela for muito específica: “como eu ajusto as margens de um documento no Word?”.
O desafio é maior ainda para tarefas complexas, como elaboração de textos. A boa notícia é que existem técnicas e estratégias que nos ajudam a vencer essas dificuldades.
Outro erro frequente e potencialmente grave é o viés de automação. Trata-se da confiança excessiva na tecnologia, a ponto de assumir que ela acerta mais do que você. Isso não é difícil de acontecer com os modelos de linguagem. Eles escrevem bem. Os textos são bem estruturados e têm uma sequência lógica. Além disso, parecem saber responder qualquer coisa que você pergunte, do palito de fósforo ao combustível de foguete.
Como eu posso estar certo e a IA errada? Pois acredite em mim, ela erra. E erra mais do que você pode imaginar. Muitas vezes, as alucinações estão camufladas em textos coerentes, mas que partem de premissas erradas, apresentam falácias, ou simplesmente inventam informações.
Por isso, é preciso sempre ter atenção redobrada, principalmente quando você está abordando um tema que conhece pouco ou algo muito novo, na fronteira do conhecimento. Sempre confira as fontes, peça referências e links e questione a própria IA.
“Tem certeza sobre o que você escreveu? Pesquise na internet e confira essas informações.”
A pressa e a necessidade de aumento da produtividade são os principais gatilhos para o viés de automação. Nunca considere um texto produzido pela IA como definitivo. Sempre faça sua revisão. Use outro aplicativo para a comparar os resultados ou recorra a sites de checagem de informações.
Automatize apenas processos que já estão consolidados e cuja resultado seja reversível. Insira uma etapa de revisão e aprovação humana em processos críticos ou irreversíveis.
É preciso se manter no centro da decisão. A IA é uma ferramenta e não a responsável final pela tarefa.
Espero que tenha aproveitado esta série. A partir da próxima semana, vamos conversar sobre como usar a IA para organizar, acompanhar e atualizar o conhecimento científico no dia a dia.
Se quiser aprofundar seu conhecimento sobre modelos de linguagem, conheça o curso Desbravando o ChatGPT (www.antoniotoledo.com.br).