Membro da maior organização profissional técnica do mundo dedicada ao avanço da tecnologia em benefício da humanidade (Instituto de Engenheiros Elétricos e Eletrônicos — IEEE) ainda destaca a importância da educação e medidas de segurança avançadas para combater vídeos manipulados digitalmente e proteger dados em tecnologias imersivas
Em tempos de vídeos feitos por inteligência artificial, realidade aumentada e inúmeros conteúdos com procedência duvidosa, especialista do IEEE (Instituto de Engenheiros Elétricos e Eletrônicos — maior organização profissional técnica do mundo dedicada ao avanço da tecnologia), Gabriel Gomes de Oliveira, destaca a importância de educar o público sobre as ameaças dos deepfakes e as melhores práticas para proteger a privacidade.
Os deepfakes, vídeos ou áudios manipulados por IA para parecerem autênticos, representam crescente preocupação em várias áreas, incluindo mídia, política e segurança pessoal. Segundo Gabriel Gomes de Oliveira, os algoritmos de IA estão se tornando cada vez mais sofisticados, o que torna a identificação dos videos falsos um desafio constante. “A detecção da ameaça envolve o reconhecimento de anomalias digitais, como mudanças na iluminação, movimentos bruscos e sincronia labial inadequada”, explica Oliveira.
Dicas que podem ajudar
Para ajudar a identificar vídeos gerados por IA, Oliveira recomenda a utilização de ferramentas avançadas de detecção baseadas em IA que analisam características sutis nos vídeos. Além disso, sugere prestar atenção em detalhes como:
- Elementos digitais na imagem: pequenas inconsistências que não estariam presentes em vídeos genuínos;
- Iluminação da cena: variações não naturais na iluminação de um quadro para o outro;
- Movimentos bruscos: movimentos que parecem mecânicos ou fora do ritmo natural;
- Tom de pele: mudanças abruptas no tom de pele que podem indicar manipulação;
- Aspecto piscante dos olhos: frequência de piscadas que não correspondem a um comportamento humano normal;
- Sincronia labial com a fala: lábios que não se movem de forma sincronizada com o áudio.
Além de identificar simulações digitais, proteger a privacidade em um mundo de tecnologias imersivas, como a realidade aumentada (RA) e virtual (RV), também é crucial. Essas tecnologias coletam uma vasta quantidade de dados sensoriais, o que pode representar riscos significativos à privacidade. Para mitigar esses riscos, o membro do IEEE sugere medidas como: educação sobre ameaças atuais, exercícios simulados, protocolos de relatório, aprendizado contínuo e atualizações e a construção de uma cultura de segurança.
Para proteger a privacidade em tecnologias de realidade aumentada (RA) e virtual (RV) na sala de aula, Oliveira sugere revisar constantemente o sistema e a infraestrutura para identificar e corrigir vulnerabilidades, garantir que todas as fontes de dados sejam seguras e confiáveis, e empregar especialistas em cibersegurança para fortalecer as defesas. Ele também recomenda contratar serviços específicos para identificar e mitigar vulnerabilidades, investir em treinamentos contínuos para qualificar colaboradores e monitorar e analisar dados internos para detectar ameaças ou violações.
“É fundamental equilibrar defesas técnicas com a conscientização sobre segurança cibernética para criar uma estratégia robusta”, enfatiza ele. Ele também sugere incentivar a colaboração entre equipes de TI e outros departamentos para garantir que as medidas de segurança e programas de treinamento estejam alinhados com as necessidades organizacionais.
Para o futuro, é essencial conduzir avaliações regulares de vulnerabilidade e testes para identificar e abordar possíveis fraquezas nas defesas, tanto técnicas quanto humanas. “A informação e a educação são a base para o avanço seguro e inteligente de tecnologias inovadoras para toda a sociedade”, conclui o especialista do IEEE.