A pergunta “É imaginável derreter um ovo?” bagunçou o sistema de busca do Google. O site utiliza uma tabela para demonstrar a resposta mais produtiva à consulta antes dos primeiros resultados do site, mas mostrou uma resposta incorreta, gerada por meio de inteligência sintética.
Uma postagem do usuário Tyler Glaiel viralizou no X (antigo Twitter) ao mostrar a reação errada destacada no Google. A confirmar: não é imaginável derreter ovos devido às proteínas fornecidas pela composição.
O motivo foi descoberto após uma breve investigação: o mecanismo de busca considerou que o site Quora tinha a melhor otimização para aparecer no topo da página e mostrou o trecho no bloco de pesquisa, também chamado de trecho de código. O desafio é que o Quora começou a empregar respostas criadas por meio de inteligência sintética e revelou uma alucinação, o chamado para o procedimento pelo qual uma IA começa a se perder e criar respostas.
Embora tenha afirmado que as respostas são geradas através do ChatGPT, o portal Ars Technica descobriu que o Quora usa algum outro estilo de linguagem OpenAI nesta questão, chamado text-davinci-003. Essa geração é obsoleta pela própria empresa e não é usada no popular chatbot, que adota os estilos GPT-3. 5 e GPT-4.
Agora, quando você pesquisa a mesma coisa no Google, a ferramenta apresenta uma resposta diferente (e corrigida).
A situação do ovo pode parecer cômica, mas mostra um desafio recorrente na qualidade das buscas nos mecanismos de busca. Os usuários apontam para o excesso de respostas automáticas e anúncios, que podem constituir dados incompletos em alguns cenários, e recorrem a oportunidades como Quora e Reddit.
É vital que a remodelação que o Google pretende busque priorizar os efeitos gerados por meio do Bard, o chatbot de inteligência sintética da gigante de Mountain View.
Fonte: Ars Technica