Ícone do site desaopaulo.com

Acesso total: funcionários têm potencial para visualizar todas as suas conversas no ChatGPT.

Acesso total: funcionários têm potencial para visualizar todas as suas conversas no ChatGPT.

Pixabay

Privacidade em risco: a exposição dos usuários com o uso da inteligência artificial

Para muitos, o ChatGPT não é apenas uma ferramenta, mas um parceiro de diálogo constante. Principalmente entre jovens, essa plataforma serve de apoio em busca de aconselhamento e conforto emocional.

Sam Altman, CEO da OpenAI, chamou a atenção para o fato de que, na ausência de regulamentação específica, os dados dessas interações podem ser requisitados judicialmente, afetando a privacidade dos usuários.

A dependência emocional e o isolamento gerados pela interação com IA

A substituição de interações humanas por conversas com IA levanta alertas sobre dependência emocional e isolamento. A personalização inadequada e as respostas padronizadas da IA podem reforçar padrões emocionais negativos, afastando os usuários de interações reais com terapeutas qualificados.

O que sabemos até agora

A principal preocupação é a ausência de regulamentação que assegure a confidencialidade dessas conversas. Em muitos países, as políticas de proteção de dados variam e raramente tratam do sigilo em interações com inteligência artificial.

Essa lacuna legal pode forçar empresas como a OpenAI a armazenar conversas por períodos prolongados, aumentando o risco de vazamento. Além disso, as autoridades podem demandar acesso a esses dados em investigações legais.

No início deste mês, veio à tona a informação de que conversas privadas entre usuários e o ChatGPT, incluindo relatos pessoais e sensíveis, foram acidentalmente indexadas por mecanismos de busca como o Google. O caso foi revelado pela revista norte-americana Fast Company e confirmado pela própria OpenAI.

📍 Ver más noticias sobre Eventos & Agenda

Sair da versão mobile