Anúncio fechado

Deepfake – a tecnologia que permite substituir os rostos das pessoas em fotos e vídeos pelos rostos de outras pessoas, evoluiu nos últimos anos para uma forma em que a diferença entre imagens reais e dados falsos está se tornando cada vez mais complicada. Em sites com conteúdo pornográfico, por exemplo, o deepfake é usado para criar vídeos emocionantes com imagens de atores famosos. É claro que tudo isto acontece sem o consentimento das personalidades atacadas e, graças à crescente sofisticação da tecnologia que utiliza a aprendizagem automática, espalham-se receios sobre outras possíveis formas do seu abuso. A ameaça de que um deepfake possa desacreditar completamente os registos digitais como prova em processos judiciais é real e paira sobre o sector da justiça como a Espada de Dâmocles. A boa notícia agora vem da Truepic, onde eles criaram uma maneira simples de verificar a autenticidade das listagens.

Seus criadores chamaram a nova tecnologia de Foresight e, em vez de análise adicional de vídeo e determinação se é um deepfake, ela usa a vinculação de gravações individuais ao hardware no qual foram criadas para garantir a autenticidade. O Foresight marca todos os registros à medida que são criados com um conjunto especial de metadados criptografados. Os dados são armazenados em formatos comuns, na visualização da página Android Police a empresa demonstrou que uma imagem protegida desta forma pode ser salva no formato JPEG. Portanto, não há medo de formatos de dados incompatíveis.

Mas a tecnologia sofre com uma série de pequenas moscas. O maior deles é provavelmente o fato de os arquivos ainda não registrarem as alterações que foram feitas neles. A solução é envolver mais empresas que apoiem este método de segurança. O sucesso da tecnologia será assim determinado principalmente pelo envolvimento dos maiores fabricantes de câmaras e dispositivos móveis, liderados pela Samsung e Applem. Você tem medo de que alguém abuse de sua aparência? Compartilhe sua opinião conosco na discussão abaixo do artigo.

O mais lido de hoje

.