Seus Dados Estão Sendo Engolidos por Apps de IA: O Guia de Sobrevivência Digital com 12 Ações Práticas Para Proteger Sua Privacidade em 2026

Em janeiro de 2026, pesquisadores da Cybernews analisaram 38.630 aplicativos Android que se apresentavam como ferramentas de IA. O resultado foi alarmante: 72% deles continham pelo menos um segredo de segurança exposto no próprio código — chaves de API do Google Cloud, tokens do Facebook, chaves de pagamento do Stripe com acesso total ao backend financeiro. Em média, cada app vazava 5,1 segredos diferentes.

Esse não é um caso isolado. De acordo com o Stanford AI Index Report de 2025, os incidentes documentados de segurança e privacidade relacionados a IA aumentaram 56,4% entre 2023 e 2024. Em início de 2025, a OpenAI foi multada em €15 milhões pela autoridade italiana de proteção de dados por treinar modelos com dados pessoais sem base legal clara. E entre janeiro de 2025 e fevereiro de 2026, pelo menos 20 vazamentos documentados expuseram dados pessoais de dezenas de milhões de usuários em aplicativos de IA.

Se você usa ChatGPT, Gemini, Copilot, Midjourney ou qualquer outra ferramenta de IA — e estatisticamente há 78% de chance de que use — este artigo é o seu guia de sobrevivência. Não vamos gerar medo. Vamos dar a você informações concretas e 12 ações práticas para continuar usando IA com segurança.

O Que Este Guia Cobre

  1. A anatomia de um vazamento de IA: o que realmente acontece com seus dados
  2. Shadow AI: a ameaça invisível dentro da sua empresa (ou da sua própria rotina)
  3. 5 incidentes reais que mostram o tamanho do problema
  4. O que o ChatGPT, Gemini e Claude realmente fazem com seus dados
  5. Deepfakes e phishing com IA: as novas ameaças de 2025-2026
  6. As 12 ações práticas para proteger sua privacidade
  7. Configurações de privacidade passo a passo: ChatGPT, Gemini e Claude
  8. Extensões de navegador: o cavalo de troia que ninguém vigia
  9. O novo cenário legal: EU AI Act, LGPD e o que muda para você
  10. Ferramentas de IA que priorizam privacidade (alternativas que valem conhecer)

1. A Anatomia de um Vazamento de IA: O Que Realmente Acontece com Seus Dados

Para se proteger, você precisa entender como seus dados viajam quando você usa uma ferramenta de IA. O processo é menos simples do que parece.

Quando você digita uma pergunta no ChatGPT, por exemplo, seu texto sai do seu dispositivo, viaja pela internet e chega a um servidor em um data center — geralmente nos Estados Unidos. Ali, o modelo processa sua mensagem e gera uma resposta. Até aqui, parece inofensivo. Mas o que acontece com esse texto depois que você recebe a resposta é onde mora o perigo.

Dependendo da ferramenta e das suas configurações, sua mensagem pode ser armazenada nos servidores por dias, semanas ou indefinidamente. Ela pode ser revisada por funcionários humanos para fins de “melhoria do modelo.” Pode ser usada como dado de treinamento para versões futuras da IA. E pode ser acessível a terceiros em caso de falhas de segurança ou ordens judiciais.

O problema se multiplica quando consideramos o que as pessoas colocam nessas ferramentas. Segundo dados de pesquisa publicados em 2025, 34,8% das informações inseridas por funcionários no ChatGPT são dados sensíveis — um salto brutal em relação aos 11% registrados em 2023. E 27% das mensagens de consumidores no ChatGPT são relacionadas a trabalho, muitas vezes enviadas por contas pessoais, fora do controle de qualquer departamento de TI.

Ou seja: milhões de pessoas estão, sem saber, alimentando bancos de dados de terceiros com informações confidenciais de suas empresas, seus clientes e suas vidas pessoais.

2. Shadow AI: A Ameaça Invisível Dentro da Sua Empresa (Ou da Sua Própria Rotina)

“Shadow AI” é o termo usado para descrever o uso de ferramentas de IA não autorizadas ou não supervisionadas em contextos profissionais. Pense em um funcionário que abre uma conta pessoal no ChatGPT para resumir um contrato, traduzir um documento confidencial ou gerar um e-mail para um cliente. A intenção é boa — trabalhar mais rápido. O resultado pode ser catastrófico.

Essa não é uma preocupação teórica. De acordo com projeções da Gartner, 40% das violações de dados até 2027 serão atribuídas ao uso indevido de IA ou a sistemas de “Shadow AI”. E segundo a IBM, 20% das organizações globais já sofreram uma violação de dados no último ano especificamente por causa de Shadow AI.

O caso mais emblemático continua sendo o da Samsung em 2023: engenheiros da empresa colaram código-fonte proprietário e anotações de reuniões estratégicas no ChatGPT. A Samsung foi forçada a banir completamente ferramentas de IA externas depois do incidente. Mas quantas empresas menores sofrem o mesmo tipo de vazamento sem sequer saber?

O Problema do “Modelo Shopping”

Existe ainda um comportamento mais sutil e igualmente perigoso. Quando um modelo de IA empresarial, com regras de segurança configuradas, recusa uma solicitação por motivos de compliance, o funcionário simplesmente copia o mesmo prompt e cola em uma versão pessoal e menos restritiva da ferramenta. Isso é chamado de “model shopping” — e é quase impossível de detectar sem monitoramento adequado.

3. 5 Incidentes Reais Que Mostram o Tamanho do Problema

Números assustam, mas histórias reais convencem. Aqui estão cinco incidentes documentados que ilustram a variedade e gravidade dos riscos:

Incidente 1: OpenAI Multada em €15 Milhões na Itália (2025)

A autoridade italiana de proteção de dados multou a OpenAI por treinar seus modelos com dados pessoais de cidadãos italianos sem uma base legal clara e sem implementar verificação de idade adequada. Este caso estabeleceu um precedente importante: empresas de IA não estão acima das leis de proteção de dados existentes.

Incidente 2: 38.630 Apps de IA Android com Segredos Expostos (Janeiro 2026)

A pesquisa da Cybernews revelou que quase três quartos dos apps Android que se apresentam como “IA” têm chaves de segurança críticas embutidas diretamente no código — acessíveis a qualquer pessoa que descompile o aplicativo. Entre os segredos vazados: chaves do Stripe que davam controle total sobre pagamentos, credenciais AWS e tokens de plataformas de marketing.

Incidente 3: Extensões de Navegador Comprometidas (Fevereiro 2025)

Pesquisadores de segurança descobriram uma campanha coordenada que comprometeu mais de 40 extensões populares de navegador usadas por 3,7 milhões de profissionais. Essas extensões, que se apresentavam como “otimizadores de produtividade” com funcionalidades de IA, silenciosamente coletavam dados de sessões de navegação ativas — incluindo dados bancários e informações corporativas.

Incidente 4: Plataformas No-Code com Bancos de Dados Abertos (2025-2026)

Aplicações construídas com plataformas populares de desenvolvimento rápido, incluindo Firebase e Supabase, foram encontradas com bancos de dados completamente expostos à internet — sem qualquer autenticação. Um estudo identificou que aplicativos construídos com IA apresentam taxas de misconfiguration dramaticamente mais altas que aplicativos tradicionais. Dados de usuários, incluindo informações pessoais e financeiras, estavam acessíveis a qualquer pessoa com um navegador.

Incidente 5: 23,8 Milhões de Segredos Vazados no GitHub (2024)

O relatório State of Secrets Sprawl 2025 do GitGuardian revelou que 23,8 milhões de segredos (chaves de API, tokens, senhas) foram expostos em repositórios públicos do GitHub em 2024 — um aumento de 25% em relação ao ano anterior. O dado mais perturbador: 70% dos segredos vazados em 2022 ainda estavam ativos em 2025. A explosão de ferramentas de IA que geram código automaticamente está acelerando esse problema, já que desenvolvedores menos experientes publicam código sem auditar segredos embutidos.

4. O Que o ChatGPT, Gemini e Claude Realmente Fazem com Seus Dados

Em vez de especular, vamos examinar o que cada uma das três principais plataformas de IA declara em suas políticas de privacidade. As diferenças são significativas e devem influenciar sua escolha.

ChatGPT (OpenAI)

Retenção de dados: Por padrão, suas conversas são armazenadas e podem ser usadas para treinar modelos futuros. No entanto, a OpenAI oferece a opção de desativar o treinamento com seus dados nas configurações de privacidade. Usuários dos planos Team e Enterprise têm essa desativação por padrão.

Revisão humana: A OpenAI pode revisar conversas para fins de segurança e melhoria, mesmo quando o treinamento está desativado.

API vs. interface web: Os dados enviados pela API não são usados para treinamento por padrão. Essa distinção é crucial para uso empresarial.

Gemini (Google)

Retenção de dados: Conversas com o Gemini são armazenadas por até 18 meses por padrão e podem ser usadas para melhorar os produtos de IA do Google. Há opção de desativar a atividade do Gemini no painel de privacidade do Google.

Integração com o ecossistema Google: Se você usa Gemini integrado ao Gmail, Google Docs ou Google Drive, o contexto dos seus dados pessoais pode ser ampliado significativamente. Isso traz conveniência, mas aumenta a superfície de exposição.

Claude (Anthropic)

Retenção de dados: A Anthropic declara que conversas na interface web não são usadas para treinamento por padrão, a menos que o usuário opte por isso. Dados da API também não são usados para treinamento.

Abordagem de privacidade: Posiciona-se como a alternativa mais focada em segurança entre as três grandes plataformas, com ênfase em IA “segura por design.”

A Regra Universal

Independentemente da plataforma, uma regra permanece verdadeira: se a ferramenta é gratuita, seus dados provavelmente são parte do modelo de negócio. Planos pagos e APIs corporativas consistentemente oferecem mais proteções de privacidade que versões gratuitas.

5. Deepfakes e Phishing com IA: As Novas Ameaças de 2025-2026

Enquanto nos preocupamos com o que colocamos dentro das ferramentas de IA, existe uma ameaça paralela crescendo exponencialmente: o que criminosos fazem com IA contra nós.

Phishing Turbinado por IA

Segundo dados de segurança de 2025, mais de 82% dos e-mails de phishing já são gerados por IA. Isso significa que os textos são gramaticalmente perfeitos, contextualizados e personalizados — eliminando os erros de português e as formatações estranhas que antes serviam como sinais de alerta. Um e-mail de phishing moderno pode referenciar seu nome, sua empresa, um projeto específico e até imitar o estilo de escrita de um colega.

A Explosão dos Deepfakes

Ataques usando deepfake de áudio e vídeo devem aumentar 20 vezes até 2026 em relação aos níveis anteriores. Já existem casos documentados de fraudes onde criminosos usaram deepfake de voz para se passar por CEOs e autorizar transferências financeiras. Em 2024, uma empresa em Hong Kong perdeu US$ 25 milhões em uma fraude onde os criminosos usaram deepfake de vídeo em uma videoconferência, se passando por múltiplos executivos da empresa.

Como Se Proteger

Contra phishing com IA, a melhor defesa é processual, não tecnológica: nunca clique em links de e-mails inesperados, verifique solicitações financeiras por um segundo canal de comunicação (ligação telefônica, por exemplo), e desconfie de qualquer urgência artificial (“faça isso AGORA ou perderá o prazo”).

Contra deepfakes, estabeleça palavras-código ou procedimentos de verificação para solicitações sensíveis. Se alguém liga pedindo uma transferência urgente — mesmo que a voz pareça idêntica à do seu chefe — confirme por outro meio antes de agir.

6. As 12 Ações Práticas Para Proteger Sua Privacidade

Chegamos ao coração deste guia. Estas são as 12 ações que recomendamos a todo usuário de ferramentas de IA, ordenadas da mais simples à mais avançada. Mesmo que você implemente apenas as cinco primeiras, sua proteção já será drasticamente superior à da maioria dos usuários.

Ação 1 — Desative o treinamento com seus dados. Em toda ferramenta de IA que você usa, vá nas configurações de privacidade e desative a opção que permite o uso das suas conversas para treinamento do modelo. No ChatGPT, isso está em Settings → Data Controls → Improve the model for everyone. Essa é a ação com maior impacto pelo menor esforço.

Ação 2 — Nunca cole dados sensíveis em versões gratuitas. Se precisa usar IA com dados confidenciais (contratos, dados financeiros, informações de clientes), use exclusivamente planos empresariais com garantias contratuais de privacidade. A versão gratuita de qualquer ferramenta não oferece proteções suficientes para dados sensíveis.

Ação 3 — Crie uma “persona de trabalho” separada. Use um e-mail dedicado exclusivamente para ferramentas de IA relacionadas ao trabalho. Isso impede a mistura de dados pessoais e profissionais em uma mesma conta e facilita o controle sobre o que está sendo compartilhado.

Ação 4 — Audite suas extensões de navegador. Acesse chrome://extensions (no Chrome) ou about:addons (no Firefox) e revise cada extensão instalada. Remova qualquer extensão que você não reconheça ou não use ativamente. Extensões de “IA” e “produtividade” desconhecidas são vetores de ataque comprovados.

Ação 5 — Ative autenticação de dois fatores (2FA) em tudo. Suas contas de IA contêm seu histórico completo de conversas — incluindo possivelmente dados sensíveis. Proteja-as com 2FA, preferencialmente usando um app autenticador (Google Authenticator, Authy) em vez de SMS.

Ação 6 — Limpe seu histórico regularmente. Tanto o ChatGPT quanto o Gemini permitem apagar conversas antigas. Crie o hábito de limpar seu histórico mensalmente. Dados que não existem não podem vazar.

Ação 7 — Use o modo temporário quando disponível. O ChatGPT oferece “Temporary Chat” (chat temporário), onde a conversa não é salva e não é usada para treinamento. Use esse modo sempre que estiver lidando com informações que não devem ser retidas.

Ação 8 — Verifique as permissões de apps móveis de IA. Muitos apps de IA para celular solicitam permissões excessivas: acesso a contatos, câmera, microfone, localização. Revise e revogue permissões que não são essenciais para a funcionalidade que você usa.

Ação 9 — Anonimize dados antes de compartilhar. Se precisa usar IA para analisar dados de clientes ou pacientes, substitua nomes, e-mails e identificadores pessoais por placeholders genéricos (Cliente A, Paciente 001) antes de colar na ferramenta. Essa prática simples elimina o risco de exposição de dados pessoais identificáveis.

Ação 10 — Desconfie de apps de IA desconhecidos. Antes de instalar qualquer app que promete “IA”, verifique quem é o desenvolvedor, quantas avaliações tem, e se existe uma política de privacidade real e acessível. Se o app não tem desenvolvedor identificável ou tem uma política de privacidade genérica, não instale.

Ação 11 — Monitore vazamentos com suas credenciais. Use o HaveIBeenPwned.com para verificar se seus e-mails já apareceram em vazamentos conhecidos. Ative os alertas gratuitos de monitoramento. Se um e-mail que você usa em ferramentas de IA aparecer em um vazamento, troque a senha imediatamente.

Ação 12 — Documente suas políticas de uso de IA. Se você gerencia uma equipe ou empresa, crie um documento simples que defina: quais ferramentas de IA são aprovadas, que tipos de dados podem e não podem ser inseridos, e quais configurações de privacidade devem estar ativas. Um documento de uma página é infinitamente melhor que nenhuma política.

7. Configurações de Privacidade Passo a Passo: ChatGPT, Gemini e Claude

Para que as ações acima não fiquem abstratas, aqui está exatamente onde encontrar e como alterar as configurações mais importantes em cada plataforma.

ChatGPT — Configurações Essenciais

Desativar treinamento: Clique no seu avatar → Settings → Data Controls → desative “Improve the model for everyone”. Essa configuração impede que suas conversas sejam usadas para treinar versões futuras do modelo.

Chat temporário: Na tela de nova conversa, clique no ícone de chat temporário (representado por um ícone de ghost/fantasma) no canto superior. Conversas neste modo não são salvas e não aparecem no histórico.

Exportar e deletar dados: Em Settings → Data Controls → Export data (para baixar tudo que a OpenAI tem sobre você) e Delete account (caso decida sair completamente).

Gemini — Configurações Essenciais

Desativar atividade: Acesse myaccount.google.com → Dados e privacidade → Atividade de apps do Gemini → Desative o salvamento de atividades. Atenção: mesmo com essa configuração desativada, o Google pode reter conversas por até 72 horas para fins de segurança.

Deletar conversas: Na barra lateral do Gemini, clique em “Atividade dos Apps Gemini” para acessar e deletar conversas específicas ou todo o histórico.

Claude — Configurações Essenciais

Política padrão: A Anthropic não usa conversas da interface web para treinamento por padrão. Mas se você quer garantia adicional, use a API ou planos empresariais que oferecem contratos formais sobre uso de dados.

Deletar conversas: No painel lateral, clique nos três pontos ao lado de qualquer conversa e selecione “Delete” para removê-la permanentemente.

8. Extensões de Navegador: O Cavalo de Troia que Ninguém Vigia

Este é possivelmente o risco mais subestimado de todo o ecossistema de IA. As extensões de navegador operam com privilégios extraordinários — muitas podem ler o conteúdo de todas as páginas que você visita, incluindo páginas de banco, e-mail corporativo e dashboards privados.

O incidente de fevereiro de 2025, onde mais de 40 extensões populares foram comprometidas e afetaram 3,7 milhões de usuários, não foi um evento excepcional. É um padrão recorrente. E a proliferação de extensões que prometem “funcionalidades de IA” — resumir páginas, gerar textos, traduzir com IA — multiplicou exponencialmente a superfície de ataque.

Regras de Sobrevivência para Extensões

Regra 1 — Minimizem o número. Quanto menos extensões, menor o risco. Cada extensão é um potencial ponto de falha. Mantenha apenas as que você realmente usa toda semana.

Regra 2 — Verifique o desenvolvedor. Extensões de empresas conhecidas (Google, Microsoft, Mozilla) são drasticamente mais seguras que extensões de desenvolvedores desconhecidos. Se não há site oficial, equipe identificável ou política de privacidade detalhada, não instale.

Regra 3 — Revise as permissões. Se uma extensão de tradução pede acesso ao seu microfone e câmera, algo está errado. As permissões devem corresponder logicamente à funcionalidade oferecida.

Regra 4 — Atualize ou remova. Extensões que não são atualizadas há mais de 6 meses podem ter vulnerabilidades conhecidas e não corrigidas. Verifique a data da última atualização na Chrome Web Store ou equivalente.

9. O Novo Cenário Legal: EU AI Act, LGPD e O Que Muda Para Você

O ambiente regulatório em torno da IA está mudando rapidamente, e pela primeira vez as leis estão alcançando a velocidade da tecnologia. Entender o básico dessas regulações é importante não apenas para empresas, mas para qualquer pessoa que queira entender seus direitos.

EU AI Act (Lei de IA da União Europeia)

A primeira grande legislação específica para IA do mundo. Entrou em vigor em agosto de 2024, com implementação progressiva. As proibições de práticas consideradas inaceitáveis — como pontuação social (social scoring) e técnicas subliminais de manipulação — estão em vigor desde fevereiro de 2025. A conformidade total para sistemas de alto risco se torna obrigatória em 2026.

As multas são pesadas: até €35 milhões ou 7% do faturamento global anual, o que for maior. Para contextualizar, o GDPR permite multas de até 4% — o AI Act é significativamente mais severo.

LGPD no Contexto de IA (Brasil)

Embora o Brasil ainda não tenha uma legislação específica para IA (projetos estão em tramitação), a Lei Geral de Proteção de Dados já se aplica a ferramentas de IA que processam dados de brasileiros. Isso significa que o consentimento para uso de dados pessoais, o direito de acesso e o direito de exclusão são direitos que você já possui hoje. Se uma ferramenta de IA recusa um pedido de exclusão de dados, ela está potencialmente em violação da LGPD.

O Que Está Chegando nos EUA

O Colorado AI Act será implementado em junho de 2026, exigindo avaliações de risco e divulgações ao consumidor para sistemas de IA de alto risco. A Califórnia implementou leis em janeiro de 2026 que exigem que desenvolvedores de IA generativa publiquem resumos de seus dados de treinamento. Até o final de 2025, 19 estados americanos tinham leis abrangentes de privacidade em vigor, criando um mosaico regulatório complexo.

O Que Isso Significa Para Você

Você tem mais direitos do que imagina. Em qualquer jurisdição com leis de proteção de dados (Brasil, UE, muitos estados dos EUA), você pode solicitar a qualquer empresa de IA que exclua seus dados pessoais, informe que dados possui sobre você, e explique como eles são usados. Exercer esses direitos é gratuito e, na maioria dos casos, as empresas são obrigadas a responder em 30 dias.

10. Ferramentas de IA que Priorizam Privacidade (Alternativas Que Valem Conhecer)

Nem todas as ferramentas de IA tratam seus dados da mesma forma. Se privacidade é uma prioridade para você, estas alternativas merecem atenção:

Para Modelos de Linguagem (LLMs)

Ollama + Modelos Open Source: Permite rodar modelos de IA como Llama, Mistral e Gemma localmente no seu computador. Seus dados nunca saem do seu dispositivo. Exige um computador razoavelmente potente, mas para quem trabalha com dados sensíveis, é a opção mais segura que existe.

Jan.ai: Interface amigável para rodar modelos locais, voltada para quem não é técnico. Funciona como um “ChatGPT offline” — sem conexão com servidores externos.

Para Pesquisa

Kagi Search: Motor de busca pago (sem anúncios) que oferece funcionalidades de IA com foco em privacidade. Não rastreia seus termos de busca nem vende dados a terceiros.

Brave Search com Leo AI: Alternativa gratuita com assistente de IA integrado que processa consultas sem vincular a identidades de usuários.

Para Armazenamento e Notas

Obsidian: App de notas que armazena tudo localmente em arquivos Markdown. Plugins de IA disponíveis que se conectam ao Ollama para processar notas sem enviar dados para nuvem.

Standard Notes: App de notas com criptografia ponta-a-ponta por padrão. Nem mesmo a empresa que opera o serviço pode ler suas notas.

Para E-mail

Proton Mail: E-mail com criptografia ponta-a-ponta e sede na Suíça (legislação de privacidade rigorosa). Recentemente incorporou funcionalidades de IA para escrita assistida que processam dados localmente.

Conclusão: Privacidade Não É Paranoia — É Estratégia

Os números são claros: os riscos de privacidade associados a ferramentas de IA são reais, documentados e crescentes. Mas isso não significa que você deve parar de usar IA. Significa que você deve usar de forma consciente e estratégica.

Das 12 ações que apresentamos, mesmo implementar as cinco primeiras já coloca você à frente de 90% dos usuários em termos de proteção. Desative o treinamento com seus dados, não cole informações sensíveis em versões gratuitas, use autenticação de dois fatores, audite suas extensões e anonimize dados antes de compartilhar. Essas cinco ações levam menos de 30 minutos para serem implementadas e oferecem uma proteção substancial.

A inteligência artificial é uma ferramenta transformadora — mas, como toda ferramenta poderosa, exige respeito e cuidado. No NewsForApps, continuaremos monitorando o cenário de segurança e privacidade e atualizando nossos guias conforme novas ameaças e soluções surgem.

Sua próxima ação: Abra agora as configurações de privacidade da ferramenta de IA que você mais usa e implemente a Ação 1. Leva 30 segundos. Depois, volte aqui e continue com as demais.

Perguntas Frequentes

O ChatGPT pode vazar minhas conversas para outras pessoas?

Em condições normais, suas conversas não são visíveis para outros usuários. No entanto, houve um incidente em março de 2023 onde um bug expôs títulos de conversas de outros usuários. Além disso, se a opção de treinamento estiver ativa, suas conversas podem influenciar respostas futuras do modelo de formas imprevisíveis. Por isso, desativar o uso para treinamento é a primeira ação recomendada.

Ferramentas de IA gratuitas são seguras?

Elas são seguras para uso casual e não-sensível — brainstorming, pesquisas gerais, redação de textos que não contêm dados confidenciais. Para qualquer informação que seria problemática se vazasse, planos pagos e corporativos oferecem proteções significativamente superiores.

Rodar IA localmente é realmente mais seguro?

Sim, é a opção mais segura possível, porque seus dados literalmente não saem do seu computador. Ferramentas como Ollama e Jan.ai permitem isso sem necessidade de conhecimento avançado. A desvantagem é que modelos locais são geralmente menos potentes que os modelos de nuvem como GPT-4 ou Claude.

Preciso me preocupar com a LGPD ao usar ferramentas de IA?

Se você processa dados de outras pessoas (clientes, pacientes, alunos) em ferramentas de IA, sim. A LGPD se aplica ao tratamento de dados pessoais independentemente da ferramenta utilizada. Inserir dados pessoais de terceiros em uma ferramenta de IA sem consentimento pode configurar violação da lei.

Deepfakes são realmente uma ameaça para pessoas comuns?

Cada vez mais. Deepfakes já são usados em golpes de engenharia social, fraudes financeiras e até assédio. A tecnologia está se tornando mais acessível e barata, o que significa que o risco não se limita a CEOs e celebridades. Verificar solicitações por canais alternativos e manter ceticismo saudável são as melhores defesas.