Gemini Revela Nome Completo de Usuária, Expondo Brecha na IA do Google

Caso levanta dúvidas sobre privacidade e possível uso de dados reais no treinamento de IA

Um incidente envolvendo o chatbot de inteligência artificial (IA) Gemini, do Google, gerou preocupações sobre privacidade e o funcionamento de modelos generativos. Um usuário, sem qualquer contexto, recebeu o nome completo de uma pessoa real durante uma interação com a IA. O acontecimento foi divulgado no dia 1º de abril e não se tratava de uma brincadeira.

A desenvolvedora de software Julia Krisnarane relatou o episódio em uma postagem nas redes sociais. Um homem, identificado como Lucas Villela, entrou em contato com ela pelo LinkedIn, alertando que o Gemini havia mencionado seu nome completo durante a conversa. Ele compartilhou o link da interação, permitindo que Julia confirmasse a veracidade da informação.

Nossos vídeos em destaque

“Fiquei preocupada porque a IA expôs o meu nome completo, e meu nome é único, não teria outra pessoa com um igual”, explicou Julia em entrevista à Full Games. “Uso o Gemini no plano Pro para estudantes diariamente e trabalho com tecnologia, então fiquei bastante assustada com esse vazamento e me perguntei: o que será que pode ter acontecido? Por que exatamente eu? E se isso ocorrer com mais pessoas e até mesmo com dados sensíveis?”, comentou.

A situação atraiu atenção, uma vez que os dois não tinham qualquer ligação: não moram no mesmo estado, não têm contatos em comum e nunca interagiram anteriormente. Apesar disso, o modelo mencionou corretamente o nome completo de Julia no meio de uma conversa técnica sobre artigos científicos, embora tenha atribuído a ela a atuação profissional de Lucas.

Leia Mais

‘Cadê a empresa bilionária?’: Keeta faz demissão em massa e funcionários protestam

Após a publicação, diversos usuários relataram situações similares nos comentários: o Gemini se referindo a pessoas por nomes errados, completos ou aparentemente reais. Os relatos compartilhavam a mesma circunstância: respostas que misturavam dados ou identidades, um fenômeno muitas vezes chamado de “alucinação” na linguagem da IA, que nem sempre é inofensivo.

O que causa esse tipo de ‘alucinação’?

Em entrevista à Full Games, Lucas Villela, graduado em Ciência da Computação pela Unesp e mestrando na UFRGS, destacou que o comportamento pode ter múltiplas explicações, nenhuma particularmente reconfortante.

Ele explicou que modelos de linguagem operam com base em probabilidades. “Precisamos sempre verificar a veracidade da informação que recebemos. O funcionamento de um modelo de linguagem como o Gemini está ligado à probabilidade da próxima palavra”, disse. Em resumo, o modelo não “sabe” coisas; ele constrói o texto ao prever qual palavra vem a seguir, e isso pode levar a erros.

Entre as possíveis causas estão falhas conhecidas, como vazamento indireto de dados de treinamento. “O modelo pode acabar memorizando informações e reproduzindo isso”, explicou. Dado que esses sistemas são treinados com vastos volumes de dados da internet, nomes reais podem surgir inesperadamente.

Outras possibilidades incluem erro de memória ou contaminação cruzada de contextos. Essa contaminação pode ocorrer quando sistemas interligados influenciam as respostas. Lucas observou que o Gemini, ao ser interpelado, reconheceu apresentar um “erro sistêmico” ao chamar Julia pelo nome de Lucas.

Leia Mais

ChatGPT vira canal de vendas — e muda a lógica do e-commerce

O Google não se manifestou diretamente sobre o incidente, enviando em vez disso links de suas páginas sobre privacidade e funcionamento do Gemini. Segundo o site da empresa, interações com o assistente — incluindo sua versão para estudantes — podem ser utilizadas para treinar e melhorar os modelos, com revisão humana em alguns casos.

Como limitar o uso de dados e se proteger ao usar IA

Conforme indicado pelo Google, o uso de dados é ativado por padrão, mas os usuários podem desativá-lo. Para evitar que suas conversas sejam usadas para treinamento, é possível desligar a opção de Manter atividade nas configurações de privacidade do Gemini.

Ainda assim, a empresa recomenda não inserir informações sensíveis nas interações, mesmo com a coleta desativada, pois parte dos dados pode ser necessária para o funcionamento básico do sistema ou revisões de segurança.

Leia Mais

O que é a Semana do Consumidor?

Outra orientação é utilizar chats temporários ou revisar permissões de integração com outros serviços, como e-mail e navegação. Esses dados podem ser acessados para personalizar respostas, o que é útil, mas também aumenta o risco de exposição em caso de falhas.

Por fim, um princípio fundamental a ser lembrado na era da IA é a desconfiança. Modelos podem errar, confundir ou misturar informações, e, como demonstrado no caso de Julia e Lucas, às vezes até acertam demais.