Os Riscos de Compartilhar Informações Privadas com Chatbots de IA

Os chatbots de IA deram passos significativos nas últimas duas décadas, mas as questões relacionadas à privacidade ainda são motivo de preocupação. Embora o desenvolvimento dessas interfaces de conversação tenha revolucionado as interações entre humanos e computadores, é crucial ter cautela em relação às informações que compartilhamos com eles.

Em um artigo de Jack Wallen no ZDNet, o chatbot Gemini do Google (anteriormente conhecido como Bard) é destacado como exemplo. A declaração de privacidade do Google revela explicitamente que todos os bate-papos com Gemini são armazenados por um período de três anos e estão sujeitos a revisão humana. De forma clara, os termos e condições alertam os usuários para não inserirem informações confidenciais ou dados que não desejam que sejam utilizados para a melhoria dos produtos e serviços do Google.

Embora o Google assegure aos usuários que os revisores se esforçam para remover dados privados explícitos, como números de telefone e endereços de e-mail, houve casos de vazamentos em modelos de linguagem similares. Um vazamento do ChatGPT no ano passado expôs o risco potencial de acessar informações de treinamento, sugerindo que a confidencialidade nem sempre pode ser garantida.

Além disso, não são apenas os vazamentos que devemos ter cuidado, mas também as práticas de certas empresas de IA. A Mozilla relata que “namoradas” de IA violam a privacidade dos usuários de maneiras alarmantes. CrushOn.AI, por exemplo, coleta detalhes sensíveis, incluindo informações sobre saúde sexual, uso de medicamentos e cuidados de afirmação de gênero. Surpreendentemente, mais de 90% desses aplicativos podem vender ou compartilhar dados do usuário para publicidade direcionada e outros fins. Além disso, mais da metade dessas aplicações se recusam a permitir que os usuários excluam os dados coletados.

Diante dessas preocupações, fica evidente que discutir assuntos privados com grandes modelos de linguagem é intrinsecamente arriscado. Embora seja óbvio que identificadores pessoais, como números de Seguro Social, telefones e endereços, nunca devem ser compartilhados, a cautela se estende a qualquer informação que os usuários não desejem ver vazada no futuro. Esses aplicativos de IA simplesmente não oferecem as salvaguardas necessárias para a privacidade.

À medida que a IA continua avançando, é imperativo que os usuários estejam cientes das possíveis consequências ao interagir com chatbots e tecnologias similares. Proteger nossa privacidade exige uma avaliação crítica das informações que divulgamos e das plataformas por meio das quais escolhemos nos comunicar.

Perguntas frequentes:

1. Qual é a principal preocupação em relação aos chatbots de IA?
A principal preocupação em relação aos chatbots de IA é a privacidade e o risco potencial de compartilhar informações pessoais com essas interfaces conversacionais.

2. Qual é a declaração de privacidade em relação ao chatbot Gemini do Google?
De acordo com a declaração de privacidade do Google, todos os chats com o Gemini são armazenados por um período de três anos e estão sujeitos a revisão humana. Os usuários são avisados para não inserirem informações confidenciais ou dados que não desejam que sejam usados para melhorar os produtos e serviços do Google.

3. Vazamentos de dados privados são comuns em modelos de linguagem?
Embora o Google assegure aos usuários que são feitos esforços para remover dados privados explícitos, houve casos de vazamentos em modelos de linguagem similares, destacando o risco potencial de acessar informações de treinamento e a falta de garantia de confidencialidade.

4. Quais são as preocupações de privacidade levantadas pelas “namoradas” de IA?
A Mozilla relata que as “namoradas” de IA violam a privacidade dos usuários, coletando detalhes sensíveis, como informações sobre saúde sexual, uso de medicamentos e cuidados de afirmação de gênero. Surpreendentemente, mais de 90% desses aplicativos podem vender ou compartilhar dados dos usuários para publicidade direcionada e outros fins, e mais da metade deles se recusa a permitir que os usuários excluam os dados coletados.

5. Quais precauções os usuários devem tomar ao interagir com chatbots e tecnologias similares?
Os usuários devem ter cautela e avaliar criticamente as informações que divulgam, mesmo além de identificadores pessoais, como números de Seguro Social, telefones e endereços. É importante estar ciente das possíveis consequências e da falta de salvaguardas de privacidade fornecidas por esses aplicativos de IA.

Termos-chave:
– Chatbots de IA: interfaces conversacionais alimentadas por inteligência artificial.
– Privacidade: a proteção e o controle de informações pessoais contra acesso ou divulgação não autorizados.
– Modelos de linguagem: sistemas de IA treinados para gerar texto ou conversas semelhantes às humanas.
– Confidencial: informações destinadas a serem mantidas em segredo ou privadas.
– Vazamentos: divulgação não autorizada ou acidental de informações.
– Identificadores pessoais: informações únicas que identificam um indivíduo, como números de Seguro Social ou telefones.
– Plataformas: tecnologia ou software usados para comunicação ou interação.

Links relacionados:
– O chatbot Gemini do Google gera preocupações com a privacidade
– Relatório da Mozilla sobre preocupações de privacidade com a IA

The source of the article is from the blog papodemusica.com

Privacy policy
Contact