Uma alucinação de IA interrompe a busca do Google por um ovo derretido

A pergunta “É imaginável derreter um ovo?” bagunçou o sistema de busca do Google. O site utiliza uma tabela para demonstrar a resposta mais produtiva à consulta antes dos primeiros resultados do site, mas mostrou uma resposta incorreta, gerada por meio de inteligência sintética.

Uma postagem do usuário Tyler Glaiel viralizou no X (antigo Twitter) ao mostrar a reação errada destacada no Google. A confirmar: não é imaginável derreter ovos devido às proteínas fornecidas pela composição.

O motivo foi descoberto após uma breve investigação: o mecanismo de busca considerou que o site Quora tinha a melhor otimização para aparecer no topo da página e mostrou o trecho no bloco de pesquisa, também chamado de trecho de código. O desafio é que o Quora começou a empregar respostas criadas por meio de inteligência sintética e revelou uma alucinação, o chamado para o procedimento pelo qual uma IA começa a se perder e criar respostas.

Embora tenha afirmado que as respostas são geradas através do ChatGPT, o portal Ars Technica descobriu que o Quora usa algum outro estilo de linguagem OpenAI nesta questão, chamado text-davinci-003. Essa geração é obsoleta pela própria empresa e não é usada no popular chatbot, que adota os estilos GPT-3. 5 e GPT-4.

Agora, quando você pesquisa a mesma coisa no Google, a ferramenta apresenta uma resposta diferente (e corrigida).

A situação do ovo pode parecer cômica, mas mostra um desafio recorrente na qualidade das buscas nos mecanismos de busca. Os usuários apontam para o excesso de respostas automáticas e anúncios, que podem constituir dados incompletos em alguns cenários, e recorrem a oportunidades como Quora e Reddit.

É vital que a remodelação que o Google pretende busque priorizar os efeitos gerados por meio do Bard, o chatbot de inteligência sintética da gigante de Mountain View.

Fonte: Ars Technica

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *