Aprender a identificar vídeos falsos, conhecidos como deepfakes, é fundamental para evitar e se proteger da manipulação de informações em tempos de avanços nas funcionalidades e complexidades da tecnologia. inteligência artificial (IA).
Também é importante ter cuidado com o uso cada vez mais frequente de realidades aumentadas e virtuais. Os usuários precisam ter cuidado ao preservar sua privacidade nas redes sociais e na Internet.
O termo deepfake surge da combinação de “aprendizagem profunda” (aprendizagem profunda) e “falso” (falsificação).
Deepfakes nada mais são do que imagens e vídeos falsos que emulam a realidade. Representam uma preocupação crescente em áreas como a comunicação social, a política e a segurança pessoal.
É o caso, por exemplo, de materiais em que um político, um jornalista ou qualquer outra figura pública ou não pública aparece em situações fabricadas e não reais.
Em tempos de eleições, inclusive, o tema ganha ainda mais destaque no debate público.
Com essas ferramentas baseadas em IA e outras ferramentas tecnológicas, é possível produzir vídeos em que uma pessoa parece estar dizendo ou fazendo algo que nunca aconteceu de fato.
O conteúdo usa algoritmos e software para alterar a aparência e a voz de uma pessoa e criar uma simulação tão real que pode ser convincente.
Os deepfakes tornaram-se, nos últimos anos, foco de atenção e preocupação do governo, da sociedade e da mídia, como garante o professor Gabriel Gomes de Oliveira, membro do Instituto de Engenheiros Elétricos e Eletrônicos (IEEE), maior organização técnica do setor. mundo. mundo dedicado ao avanço da tecnologia para o benefício da humanidade.
“A inteligência artificial está melhorando, estamos criando algoritmos cada vez melhores e consequentemente promovendo o bem e o mal. Isso fica claro nos deepfakes. É extremamente importante utilizar ferramentas para combatê-los para que tenhamos o cenário mais transparente possível”, pontuou Gabriel Gomes de Oliveira, que também é professor pesquisador da Universidade Estadual de Campinas (Unicamp) e do Conselho Nacional de Pesquisa Científica. e Desenvolvimento Tecnológico (CNPq).

O professor destaca ainda os esforços dos meios de comunicação para combater os deepfakes e conscientizar a população, mas também cobra maior participação dos governos.
“Há um esforço enorme em todo o mundo, mas é lógico e precisamos também de mais avanços do governo, de incentivos, de guias. O Brasil é muito grande, temos inúmeros desafios”, destacou.
E existe algum lado positivo no uso de deepfakes? Para o membro do IEEE, partir do significado do próprio termo, que denota algo falso, dificulta esse entendimento:
“É muito difícil você trazer algum benefício. Eu entendo que existem apenas danos. É lógico que em algum momento ou outro para entretenimento, talvez. Isso basicamente entra no aspecto ético. No governo brasileiro, trabalhamos com ética nas políticas públicas. Estamos vivenciando um enorme avanço na tecnologia.”
Deepfakes: dicas para ajudar na identificação
O professor destaca ainda a importância de educar a população sobre as ameaças dos deepfakes e as melhores práticas para proteger a privacidade.
Recursos sutis em vídeos podem ajudar o usuário a detectar se o material é deepfake ou não.
A detecção de ameaças envolve o reconhecimento de anomalias digitais, como a forma como uma pessoa fala e pisca, por exemplo. Confira:
- Elementos digitais na imagem: pequenas inconsistências que não estariam presentes em vídeos autênticos;
- Iluminação de cena: variações não naturais na iluminação de um quadro para outro;
- Movimentos repentinos: movimentos que parecem mecânicos ou fora do ritmo natural;
- Tom de pele: mudanças abruptas no tom da pele que podem indicar manipulação;
- Aparência piscante dos olhos: frequência de piscadas que não correspondem ao comportamento humano normal;
- Sincronização labial com fala: lábios que não se movem em sincronia com o áudio.
“Não adianta ter tecnologias, eficiência e um ecossistema inteligente quando o usuário final não os utiliza corretamente. Preciso que esse cidadão seja informado da forma correta e isso é uma grande parte da comunicação governamental eficiente. É simples, fácil e rápido. Dependemos muito do governo, que é o ponto principal para explicar de forma fácil e compreensível para qualquer cidadão”, acrescentou o professor ao falar sobre a atenção que deve ser dada ao usuário final.

Legislação
Projeto de lei tramita no Congresso Nacional busca restringir a manipulação de imagens com inteligência artificial. O texto prevê a hipótese qualificada para o crime de falsidade de identidade.
Segundo a Agência Senado, quem criar imagem ou vídeo falso com deepfake para atribuir identidade falsa a si ou a outra pessoa poderá ser condenado a pena de um a cinco anos de prisão e multa.
“A pena será reduzida em um terço ou até metade para quem disseminar intencionalmente material criminoso. Atualmente, a identidade falsa pode resultar em multa ou prisão de três meses a um ano”, explica o órgão.
O PL tramita desde fevereiro na Câmara dos Deputados, de onde deverá seguir posteriormente, caso seja aprovado, ao Senado Federal e eventual sanção pela Presidência da República.
O Tribunal Superior Eleitoral (TSE) este ano proibiu o uso de inteligência artificial para criar e propagar conteúdos falsos em eleições.
Foi a primeira vez que o tribunal regulamentou o uso de IA em anúncios de partidos, coligações, federações partidárias, candidatos e candidatas em eleições. Recomendar o uso de inteligência artificial nos conteúdos passou a ser obrigatório.

Proteção de privacidade
Para mitigar os riscos da coleta de grandes quantidades de dados sensoriais, que podem representar riscos significativos à privacidade dos usuários, o professor sugere medidas como:
- Revisão de sistemas e infraestrutura;
- garantir que todas as fontes de dados sejam seguras e confiáveis;
- empregar especialistas em segurança cibernética para fortalecer as defesas;
- contratar serviços específicos para identificar e mitigar vulnerabilidades;
- investir na formação contínua para qualificar os colaboradores; e
- monitorar e analisar dados internos para detectar ameaças ou violações.
Também é importante valorizar a educação sobre as ameaças atuais, exercícios simulados, protocolos de relatórios, aprendizagem e atualizações contínuas e a construção de uma cultura de segurança.
E o futuro?
O futuro envolve um debate ainda mais ligado às questões éticas, segundo o especialista do IEEE.
Para Gabriel Gomes de Oliveira, nos próximos anos será ainda mais frequente a presença de um analista ético, profissional responsável por verificar o impacto ético numa determinada sociedade ou ecossistema de ferramentas ligadas à IA.
“Num futuro tão próximo, não vamos esperar muito. A ética é, na verdade, muito intrínseca neste contexto. O governo pretende proteger-nos, mas como nos protegerá se não houver mercado? Veremos avanços significativos nas mudanças nos aspectos legais, como aconteceu, por exemplo, com a LGPD [Lei Geral de Proteção de Dados]. Teremos leis mais duras, restrições, teremos algumas iniciativas. É uma sinergia importante para preservar o nosso futuro, para nos protegermos”.
Veja também
MÍDIA SOCIAL
Fundador do Telegram é levado ao Tribunal na França
SAÚDE
Ataxia de Friedreich: entenda a doença que atinge uma ex-chiquitita que vai competir nas Paraolimpíadas
empréstimo itaú pessoal
divida banco pan
refinanciamento de empréstimo consignado bradesco
taxas de juros inss
empréstimo de valor baixo
simulador de empréstimo consignado banco do brasil
quitar emprestimo fgts banco pan