Privacidade em risco: a exposição dos usuários com o uso da inteligência artificial
Para muitos, o ChatGPT não é apenas uma ferramenta, mas um parceiro de diálogo constante. Principalmente entre jovens, essa plataforma serve de apoio em busca de aconselhamento e conforto emocional.
Sam Altman, CEO da OpenAI, chamou a atenção para o fato de que, na ausência de regulamentação específica, os dados dessas interações podem ser requisitados judicialmente, afetando a privacidade dos usuários.
A dependência emocional e o isolamento gerados pela interação com IA
A substituição de interações humanas por conversas com IA levanta alertas sobre dependência emocional e isolamento. A personalização inadequada e as respostas padronizadas da IA podem reforçar padrões emocionais negativos, afastando os usuários de interações reais com terapeutas qualificados.
O que sabemos até agora
A principal preocupação é a ausência de regulamentação que assegure a confidencialidade dessas conversas. Em muitos países, as políticas de proteção de dados variam e raramente tratam do sigilo em interações com inteligência artificial.
Essa lacuna legal pode forçar empresas como a OpenAI a armazenar conversas por períodos prolongados, aumentando o risco de vazamento. Além disso, as autoridades podem demandar acesso a esses dados em investigações legais.
No início deste mês, veio à tona a informação de que conversas privadas entre usuários e o ChatGPT, incluindo relatos pessoais e sensíveis, foram acidentalmente indexadas por mecanismos de busca como o Google. O caso foi revelado pela revista norte-americana Fast Company e confirmado pela própria OpenAI.
📍 Ver más noticias sobre Eventos & Agenda