Google pode estar apagando respostas bizarras da IA do buscador

O Google aparentemente decidiu restringir certas perguntas ao AI Overview, devido às respostas “bizarras”. As informações estranhas geradas pela inteligência artificial (IA) do buscador divulgadas pelo público nas redes sociais não mais aparecem em determinadas pesquisas. A mudança foi percebida pelo The Verge.

Aparentemente, a contenção acontece de forma manual. Várias perguntas que viralizaram nas redes sociais agora não retornam mais resultados do AI Overview. Até agora, a companhia não se manifestou publicamente sobre o assunto.

O lançamento do AI Overview foi, no mínimo, problemático. Pensada como um meio de fornecer respostas rápidas para pesquisas no Google, a ferramenta acabou gerando uma variedade de bizarrices e respostas imprecisas, como a sugestão de colocar cola não tóxica para aumentar a aderência do queijo em pizzas.

Publicado por @reckless1280

Ver no Threads

A receita inédita para pizzas não foi a única ideia bizarra da IA do buscador mais famoso do mundo, porém. O modelo também chegou a recomendar a ingestão de pedras para suprir a demanda por minerais e vitaminas, bem como o consumo de cigarros diariamente para gestantes.

Bizarro, mas perigoso

Ainda que o AI Overview tenha sido protagonista de uma infinidade de memes e posts bizarros compartilhados nas redes, as respostas estranhas reforçam a ideia de que a IA não é confiável. Se o modelo é incapaz de compreender a estranheza de sugerir a mistura de cola em pizzas e outros hábitos nocivos para a saúde, deve ser ainda mais difícil entender temas complexos ou mais sensíveis.

O AI Overview está em experimentação há mais de um ano. Inicialmente, a ferramenta era conhecida como Search Generative Experience e, desde sua inauguração em maio de 2023, já respondeu mais de 1 bilhão de pesquisas.

Contudo, mesmo com essa quantidade enorme de interações, a IA ainda não é perfeita. As respostas curiosas fornecidas pelo modelo mostram que ela precisa de aperfeiçoamentos importantes, ao menos para ser considerada uma fonte de informações confiável.

Por que a IA do Google responde errado?

Na verdade, as respostas do Google são um exemplo claro de alucinação de IA. As alucinações são um conhecido fenômeno de modelos generativos, um possível “efeito colateral” do excesso de dados obtidos durante o treinamento.

Além de obter informações a partir de artigos acadêmicos, livros e outras fontes seguras, modelos generativos como os que alimentam o AI Overview obtém dados pela internet. Contudo, diferente de humanos, a tecnologia é incapaz de interpretar ironia, sarcasmo, respostas propositalmente enganosas e não lida bem com dados incompletos. Naturalmente, isso interfere na construção das respostas e interações.

Tags

Compartilhe

iOS 18.4 pode ter Apple Intelligence integrado ao Google Gemini
iOS 18.4 pode ter Apple Intelligence integrado ao Google Gemini
Grok: IA do X bloqueava resultados que diziam que Musk e Trump 'compartilham desinformação'
Ainda Estou aqui tem chance? Confira os favoritos ao Oscar 2025 após as premiações recentes
Ainda Estou aqui tem chance? Confira os favoritos ao Oscar 2025 após as premiações recentes
Pesquisa que propõe relacionar mediunidade a alterações genéticas é válida?
Pesquisa que propõe relacionar mediunidade a alterações genéticas é válida?
Nvidia: algumas placas RTX 5090 e 5070 Ti têm um defeito de fabricação
Nvidia: algumas placas RTX 5090 e 5070 Ti têm um defeito de fabricação
Gmail vai abandonar SMS para verificação de segurança
Gmail vai abandonar SMS para verificação de segurança
HP sofre altas críticas e desiste de SAC com fila obrigatória
HP sofre altas críticas e desiste de SAC com fila obrigatória
SVA na Pratica mais Valor mais Receita para o seu Provedor - CDNTV
SEGURANÇA OU DISPONIBILIDADE ? O QUE TORNA UMA INTERNET SEGURA ?
SWITCH RAISECOM na ARSITEC para PROVEDORES - CAST DOS LOUCOS