Publicado originalmente por Outras Palavras
Em 13 de maio de 2025, um tribunal federal dos EUA emitiu uma ordem chocante. Exigiu que a OpenAI “preservasse e segregasse todos os registros de atividades dos usuários”, mesmo que estas pessoas ou empresas desejassem excluí-los. Esta ordem significa que, a partir daquele dia, as mais de 1 bilhão de conversas com o ChatGPT enviadas diariamente por mais de 300 milhões de usuários em todo o mundo estão sendo preservadas indefinidamente, mesmo quando os usuários clicam em “excluir”.
A ordem decorre de um processo envolvendo direitos autorais, movido pelo New York Times contra a OpenAI. Mas o fundamento do tribunal é perturbador: “usuários que excluem seus dados são provavelmente infratores de direitos autorais tentando apagar seus rastros.” Em outras palavras, exercer o direito de excluir — uma proteção fundamental de privacidade — está sendo tratado pelo tribunal como evidência de suspeita criminal.
O executivo-chefe da OpenAI, Sam Altman, alertou nas redes sociais que esta decisão “compromete a privacidade do usuário” e “estabelece um mau precedente”. Mas a pergunta mais perturbadora é: o que contêm essas conversas preservadas à força? Sintomas médicos que os usuários confidenciaram ao ChatGPT, dificuldades financeiras, planos de carreira, segredos pessoais — tudo isso “pode ser vendido ou doado, violado por hackers, divulgado para as forças da lei”.
Leia a matéria completa aqui: https://outraspalavras.net/tecnologiaemdisputa/snowden-denuncia-a-arapuca-do-chatgpt/.