Nos últimos dias a plataforma ChatGPT da OpenAI passou por uma falha preocupante: conversas privadas de usuários se tornaram acessíveis via pesquisa no Google e outros mecanismos de busca.
Embora exigisse múltiplos passos para ativar, o recurso disponibilizava um campo com a opção “Tornar este chat descobrível”, opção invisível para a maioria das pessoas. E para piorar: o risco só foi percebido após centenas de casos serem expostos.
O que aconteceu com o ChatGPT ?

A raiz do problema está na opção ” Compartilhar “, função integrada ao ChatGPT. Quando os usuários compartilham um chat, ele cria uma URL pública que pode ser aberta por qualquer pessoa.
Contudo, o que não se sabia é que o Google também pode rastrear e indexar esses links compartilhados, tornando-os, assim, pesquisáveis na web.
Relatórios de veículos como Fast Company apontaram que mais de 4.500 conversas — incluindo temas delicados como saúde mental, traumas, dependências e dados corporativos — foram indexadas.
Portanto, mesmo sem nomes ou dados explícitos, várias dessas interações continham informações que permitiam identificação indireta dos usuários.
O que a OpenIA fez para solucionar o problema?

Em poucas palavras: a resposta foi rápida! No dia 1º de agosto de 2025, o Chief Information Security Officer da OpenAI, Dane Stuckey, anunciou que o recurso foi completamente desativado, alegando que:
“introduziu muitas oportunidades para que as pessoas compartilhassem acidentalmente o que não pretendiam”.
Além disso, a empresa iniciou um processo com os principais buscadores para remover os links indexados — embora alertem que conteúdos em cache podem permanecer visíveis por algum tempo.
Dessa forma, o procedimento, segundo a OpenAI, deve se estender a todos os usuários, e hoje o problema já deve estar quase completamente solucionado.
Leia Mais:
Por que isso aconteceu com o ChatGPT?
Embora o recurso fosse opt-in (Requer consentimento do usuário), a interface de compartilhamento não comunicava claramente o alcance da divulgação; por isso, muitos usuários presumiam que o link só seria visualizado por quem o recebesse, nunca imaginando que ele pudesse aparecer nos mecanismos de busca.
O incidente e a falha de segurança destaca a facilidade com que dados considerados “privados” em interfaces digitais podem se tornar públicos quando há indexação automática — algo típico na internet.
Reações e responsabilidade corporativa ao ChatGPT
Em declarações públicas, o CEO Sam Altman disse:
“usuários geralmente compartilham aspectos muito pessoais com o ChatGPT”
sinalizando, portanto, como essa confiança pode ser mal interpretada por funcionalidades opt-in.
Não apenas informações pessoais podiam ser vistas por desconhecidos, trata-se de um “vazamento profissional” também, onde muitas empresas podem ter tido dados internos e estratégias expostos inadvertidamente.
E o mais importante: Mesmo após exclusão, conteúdos podem permanecer na cache e até aparecer por buscas antigas.
Sendo assim, fica aqui um conselho já alertado por especialistas há muito tempo: tratar conversas com IA com o mesmo cuidado que e-mails ou documentos sensíveis.
Portanto, o episódio reforça a necessidade de maior educação de todos os usuários sobre os riscos de compartilhamento.
Por isso, se faz de extrema importância o papel ativo das empresas criadoras de produtos alimentados por IA o zelo por interfaces cada vez mais transparentes e auditáveis.