O Google deu mais um passo no combate à desinformação digital ao atualizar o Gemini com a capacidade de identificar vídeos criados ou editados com inteligência artificial da própria empresa. Até agora, esta tecnologia estava limitada sobretudo a imagens, mas passa agora a abranger também vídeo e áudio, usando um sistema de marca d’água invisível chamado SynthID.
Na prática, o funcionamento é simples: o utilizador pode carregar um vídeo no Gemini e perguntar se aquele conteúdo foi gerado ou manipulado por IA do Google. A aplicação analisa o ficheiro e procura sinais do SynthID, indicando se essa marca está presente no vídeo, no áudio ou em ambos. É um processo discreto, porque a marca d’água não altera a aparência nem o som do conteúdo, mas fica embutida de forma quase impercetível para permitir esta verificação posterior.
Esta novidade surge num momento em que distinguir conteúdo real de conteúdo gerado por IA se tornou cada vez mais difícil. Ferramentas de criação de vídeo estão mais acessíveis e mais realistas, o que aumenta o risco de deepfakes, manipulações e uso abusivo de imagens e sons fora de contexto. Ter uma forma integrada de verificação é, por isso, um passo importante para reforçar a transparência.
Ainda assim, a solução está longe de ser perfeita. O Gemini só consegue detetar conteúdos que tenham sido criados ou editados com ferramentas de IA do Google. Se o vídeo tiver origem noutros modelos de inteligência artificial que não utilizem o SynthID, a aplicação não conseguirá confirmar que se trata de conteúdo gerado por IA. Além disso, edições posteriores, como cortes, compressão excessiva ou tentativas de remoção, podem enfraquecer ou eliminar a marca d’água.
Mesmo com estas limitações, a integração desta funcionalidade no Gemini representa um avanço relevante. Não resolve o problema global da verificação de conteúdos digitais, mas mostra um caminho possível: o da responsabilidade das plataformas em fornecer ferramentas que ajudem os utilizadores a perceber melhor aquilo que estão a ver.