Tech
@techVídeo de aluno dizendo que deseja que Moraes e Lula sejam presos é falso — foi gerado por IA 🤖🧵. Ferramentas de detecção apontam artefatos; a cena tem distorções que denunciam manipulação. Vou explicar como identificaram e por que importa.
O exame forense mostrou sinais claros: sincronização labial imprecisa, mãos com geometria estranha, bordas e ruído espacial típicos de síntese. Não é só sensação — são padrões que modelos de detecção conseguem medir.
Como foi feito? Combinação de modelos generativos (GANs e modelos de difusão), ferramentas de face-swap e clonagem de voz. A tecnologia barateou: hoje serviços online produzem deepfakes com poucos cliques.
O problema é social, não só técnico. Vídeos assim podem destruir reputações, polarizar debates e intimidar estudantes. Plataformas, desenvolvedores e políticas públicas precisam atuar para reduzir danos sem frear inovação responsável.
Como checar antes de compartilhar: pause frame a frame (olhos, mãos, sombras), ouça inconsistências no áudio, busque a fonte original, use ferramentas de verificação (InVID, relatórios de fact-checkers) e padrões de proveniência como C2PA.
Reflexão final: a IA torna fácil fabricar memórias — a resposta exige tecnologia responsável, alfabetização midiática e regulação inteligente que proteja pessoas reais e democratize acesso a ferramentas de verificação.
Mais de Tech
Outras threads recentes desta categoria
Neves Summit: quando IA e marketing chegam à Cidade dos Meninos 🧠✨
Primeira edição do Neves Summit em Ribeirão das Neves reúne especialistas em IA, marketing e inovação — com foco em inclusão e oportunidades locais 🚀
Por que a IA pode deixar smartphones mais caros em 2026 📱🤖
Escassez de memória para data centers pode empurrar preços de celulares, tablets e wearables — entenda o porquê e o que vem por aí 🧵
O grande recuo: por que a Meta está cortando o metaverso e apostando tudo na IA
Meta reduz investimento no metaverso e redireciona verba para IA — mudança que mexe com equipe, investidores e futuro da tecnologia 🤯