Categoria
🤖
TecnologiaTranscrição
00:00Se você usa o chat GPT ou qualquer outro chatbot, já deve ter perguntado algo e recebido uma resposta totalmente sem sentido, não é?
00:11Preparamos uma reportagem para explicar por que isso acontece, mesmo com o avanço da tecnologia. Vamos acompanhar.
00:20A CIDADE NO BRASIL
00:50O cursor, ferramenta voltada para programadores, causou confusão ao informar incorretamente que os usuários não poderiam mais usar o software em mais de um computador.
01:01O alerta falso, que causou reclamações e cancelamentos, foi atribuído a um erro do próprio sistema.
01:07Mas com tecnologias cada vez mais aprimoradas, por que falhas assim ainda acontecem?
01:12Apesar dos avanços desde o lançamento do chat GPT, as taxas de erro seguem preocupantes, especialmente com os chamados modelos de raciocínio, desenvolvidos por empresas como OpenAI, Google e Gypsych.
01:26Paradoxalmente, quanto mais sofisticados os sistemas, maior tem sido a incidência dessas alucinações.
01:35O olhar digital conversou com especialistas para entender.
01:38Esses grandes modelos são treinados com uma quantidade imensa de dados e são desenvolvidos para predizer a próxima palavra, dado um contexto anterior.
01:48Ou seja, são modelos estatísticos, de certa forma.
01:52Para o comportamento da IA não ficar muito monótono ou repetitivo, pesquisadores incluem um parâmetro a mais, um nível de criatividade ou liberdade para que a tecnologia escolha uma próxima palavra provável, dada uma lista.
02:07Em algum contexto pode fazer sentido, mas quando os chatbots simulam o raciocínio humano e geram palavra a palavra, a chance de alucinação aumenta.
02:19É o que explica Sidney Leal, pesquisador e cientista de dados.
02:23Esses modelos mais avançados a gente chama de reasoning, de raciocínio.
02:28A gente pede para o modelo, é um modelo já treinado como os anteriores, mas a gente pede para ele pensar passo a passo.
02:34Então ele vai gerar também, vai gerar palavras, mas ele vai simular o raciocínio humano.
02:40Então ele sai gerando, pega a sua questão, o seu prompt e sai gerando palavra a palavra para chegar no resultado final.
02:48Qual que é o problema disso?
02:49Quanto mais palavras ele gerar, maior a chance dele alucinar.
02:53Porque ele vai, se gera uma palavra que essa palavra é um pouquinho fora do contexto, esse erro vai ser carregado para a próxima,
02:59que também vai ser um pouquinho fora, um pouquinho, um pouquinho.
03:02E tende a chegar, quanto mais palavras ele gerar, maior a chance dele alucinar, dele gerar fatos que não existem.
03:11E esses modelos são muito assertivos no ponto de eles afirmam algo mesmo não sendo verdade.
03:18E esse é o problema da alucinação.
03:20Mas existem técnicas hoje para a gente lidar com isso.
03:24Fornecer contexto, engenharia de prompt, então a gente consegue lidar e trabalhar,
03:31mesmo com esses modelos mais novos, mais recentes, a gente consegue diminuir isso para uma aplicação comercial.
03:38Embora novas ferramentas estejam em desenvolvimento para rastrear as origens dos erros,
03:43a forma como esses modelos operam ainda é, em grande parte, opaca,
03:49o que desafia a confiabilidade da tecnologia para temas mais sensíveis.
03:54E aí
03:56E aí
03:58E aí