Um homem de terno com as mãos juntas e segurando uma ilustração de robô.

Imagine o seguinte: você está navegando pelas redes sociais e se depara com um vídeo de uma celebridade fazendo algo insultante. Parece real, mas algo sobre isso parece errado. E só quando você lê a legenda, percebe que é um deepfake, criado usando IA generativa.

De vídeos deepfake a respostas geradas pelo ChatGPT, está se tornando cada vez mais difícil saber a diferença entre conteúdo feito por humanos e gerado por IA.

Mas com essa crescente dependência da IA generativa surge uma nova preocupação: o compartilhamento excessivo de dados pessoais. À medida que nos tornamos mais confortáveis com a IA, podemos estar, sem saber, fornecendo informações confidenciais que podem ser usadas para fins que nunca pretendemos. 

Corremos o risco de abrir uma caixa de Pandora de violações de privacidade, onde nossas informações pessoais são usadas de maneiras que não podemos imaginar. As consequências do compartilhamento excessivo de dados pessoais podem ser terríveis, com riscos que vão desde violações de dados até a criação de conteúdo malicioso.

Embora os benefícios potenciais da IA generativa sejam infinitos, precisamos estar atentos aos riscos potenciais que vêm com ela.

Neste artigo, vamos nos aprofundar nas violações de privacidade e nos riscos potenciais associados ao compartilhamento excessivo de dados pessoais com IA generativa e maneiras de mitigar os riscos e proteger a si mesmo e seus dados.

IA generativa: uma espada de dois gumes 

A IA generativa é uma tecnologia que usa algoritmos para criar conteúdo novo e original, aprendendo com um conjunto de dados. O algoritmo de IA pode gerar novos conteúdos semelhantes aos dados originais, mas não idênticos. É como um chef que aprende a receita e os ingredientes de um prato e depois usa sua criatividade para fazer novas variações dele.

Mas com grandes poderes vêm grande responsabilidades e a IA generativa não é exceção. A tecnologia requer grandes quantidades de dados para funcionar de forma eficaz, o que pode levar a preocupações com a privacidade. Quanto mais dados você alimenta no algoritmo, mais preciso e personalizado se torna o conteúdo que ele gera. No entanto, isso também significa que os dados pessoais estão sendo usados, o que pode ser motivo de preocupação.

Uma das principais preocupações de privacidade com a IA generativa é o risco de compartilhamento excessivo de informações pessoais e confidenciais. Isso acontece quando indivíduos ou empresas alimentam grandes quantidades de dados pessoais no algoritmo, que pode incluir informações confidenciais, como registros médicos, informações financeiras e contatos pessoais. Se esses dados caírem em mãos erradas, eles podem ser usados para fins maliciosos, como roubo de identidade, ataques cibernéticos e golpes de engenharia social.

Por exemplo, modelos de IA generativa podem ser treinados em dados pessoais, como endereços de e-mail, nomes e perfis de mídia social para criar e-mails de phishing altamente convincentes. Esses e-mails podem ser usados para enganar as pessoas e convencê-las a fornecer informações confidenciais, como senhas ou detalhes de cartão de crédito. O volume de golpes de malware cresceu visivelmente desde o início da tecnologia de chatbots, e a rápida adoção da tecnologia em aplicativos levanta preocupações sobre coleta de dados, privacidade e a prevalência de plágio e desinformação.

Outros estão percebendo o problema com o ChatGPT, um famoso aplicativo de IA generativa, sendo promovido de forma tão rápida e contundente também. Líderes em tecnologia e IA também levantaram alertas sobre isso. Em 2021, pesquisadores da Universidade de Stanford e da Universidade de Washington demonstraram que é possível usar o GPT-3, outra variante do ChatGPT, para extrair informações pessoais como endereços de e-mail, números de telefone e nomes de textos.

Você sabia?

Um estudo da Home Security Heroes mostra que um novo cracker de senhas de IA pode decifrar 71% das senhas comuns em menos de um dia.

Explorando maneiras de defender a confidencialidade 

A IA generativa pode oferecer muitos benefícios, mas não podemos fechar os olhos para a chance de informações pessoais vazarem de dados de treinamento, dificultando sua segurança.

Um banco de dados relacional pode limitar o acesso a uma tabela específica com informações pessoais, mas uma IA pode ser consultada de dezenas de maneiras diferentes. Os invasores aprenderão rapidamente como fazer as perguntas certas para obter dados confidenciais. Ensinar uma IA a proteger dados privados é algo que ainda não entendemos.

Para proteger a si mesmo e seus dados da IA generativa, é importante estar ciente de quais dados você está compartilhando e usar senhas fortes e exclusivas para proteger seus dados. Limite o acesso a dispositivos, mantenha o software atualizado e use ferramentas de preservação da privacidade, como VPNs e extensões de navegador, para proteger os dados. Além disso, leia atentamente a política de privacidade para entender quais dados estão sendo coletados, como estão sendo usados e com quem estão sendo compartilhados.

Reguladores em todo o mundo estão cada vez mais tomando medidas para proteger os dados dos usuários contra IA generativa. A menção à IA em processos legislativos globais aumentou 6,5 vezes desde 2016, passando de 1 em 2016 para 37 em 2022. Aqui estão algumas das etapas iniciadas por eles:

  1. Leis de Proteção de Dados: Os governos estão promulgando ou fortalecendo leis de proteção de dados para garantir que as empresas sejam responsabilizadas pelos dados que coletam dos usuários.

  1. Responsabilidade algorítmica: Os reguladores também estão pressionando por uma maior responsabilidade algorítmica, o que significa responsabilizar as empresas pelos algoritmos que usam e garantir que eles sejam transparentes e justos.

  1. Privacy by design: Outra abordagem que está sendo adotada pelos reguladores é incentivar as empresas a adotarem uma abordagem de “privacidade desde o início”, o que significa projetar produtos e serviços com a privacidade em mente desde o início.

  1. Diretrizes éticas de IA: Muitas organizações, incluindo a União Europeia, desenvolveram diretrizes éticas de IA para ajudar as empresas a navegar pelas complexas questões éticas em torno da IA e garantir que seja desenvolvida e usada de maneira ética e responsável.

  1. Órgãos reguladores: Os governos também estão criando órgãos reguladores especificamente dedicados a supervisionar a IA, como o Grupo de Especialistas de Alto Nível em IA da Comissão Europeia, que fornece conselhos e recomendações sobre políticas e questões regulatórias relacionadas à ela.

No geral, o objetivo dessas medidas é garantir que as empresas que usam IA generativa sejam responsabilizadas pelos dados que coletam e usam, e que os direitos de privacidade dos usuários sejam protegidos. A pressa em integrar essa tecnologia pode resultar em vazamentos de dados, imprecisões e abusos, demonstrando a necessidade de cautela e gestão responsável.

Conclusão 

O Future of Life Institute divulgou uma carta aberta solicitando que laboratórios e empresas interrompam o desenvolvimento de sistemas OpenAI após o ChatGPT-4. Indivíduos respeitáveis, incluindo Steve Wozniak, cofundador da Apple, e Elon Musk, cofundador da OpenAI, concordaram que o progresso deve ser interrompido para garantir que as pessoas possam lucrar e desfrutar dos sistemas existentes.

Agora, uma pergunta: o que acontecerá quando nós, humanos, nos tornarmos tão dependentes da IA generativa que não pudermos mais produzir novo material para modelos de treinamento?

Artigo original: AI’s privacy pandora’s box: The risks of oversharing with generative AI  

Tradução: Evellyn da Silva Amorim