MIT revela tecnologia PhotoGuard que protege imagens de edições maliciosas de IA

巴比特_

Escrito por: André Tarantola

Fonte: Engadget

Fonte da imagem: Gerada pela ferramenta Unbounded AI

Dall-E e difusão estável são apenas o começo. Os chatbots na internet estão ganhando a capacidade de editar e criar imagens, com empresas como Shutterstock e Adobe liderando o caminho, à medida que os sistemas gerados por IA ganham popularidade e as empresas trabalham para diferenciar seus produtos dos concorrentes. Mas esses novos recursos de IA também apresentam problemas familiares, como adulteração não autorizada ou apropriação indevida de obras e imagens online existentes. A tecnologia de marca d’água pode ajudar a reduzir o último problema, enquanto a nova tecnologia “PhotoGuard” desenvolvida pelo MIT CSAIL pode nos ajudar a prevenir o primeiro.

É relatado que o PhotoGuard funciona alterando alguns pixels na imagem, destruindo assim a capacidade da IA de entender o conteúdo da imagem. Essas “perturbações”, como a equipe de pesquisa as chama, são invisíveis ao olho humano, mas fáceis de ler para as máquinas. O método de ataque de “codificação” que introduz esses artefatos tem como alvo a representação subjacente do modelo algorítmico da imagem de destino - a matemática complexa que descreve a posição e a cor de cada pixel na imagem - impedindo essencialmente que a IA entenda o que é olhando. (Observação: Artefatos referem-se a várias formas de imagens que não existem no objeto digitalizado, mas aparecem na imagem.)

Além disso, métodos de ataque de “difusão” mais avançados e computacionalmente intensivos disfarçam uma imagem como outra imagem para os olhos da IA. Ele definirá uma imagem de destino e otimizará as perturbações em sua imagem para serem semelhantes à imagem de destino. Quaisquer edições que a IA tente fazer nessas imagens “imunes” são aplicadas às imagens “alvo” falsas, produzindo imagens que não parecem reais.

“O ataque do codificador faz o modelo pensar que a imagem de entrada (a ser editada) é alguma outra imagem (como uma imagem em tons de cinza)”, disse Hadi Salman, aluno de doutorado do MIT e primeiro autor do artigo, ao Engadget. “O ataque de difusão força o modelo de difusão a editar algumas das imagens de destino, que também podem ser algumas imagens cinzas ou aleatórias.” Imagens protegidas para engenharia reversa.

“Uma abordagem colaborativa envolvendo desenvolvedores de modelos, plataformas de mídia social e formuladores de políticas pode ser uma defesa eficaz contra a manipulação não autorizada de imagens. Abordar esse problema urgente é fundamental hoje”, disse Salman em um comunicado. “Embora eu esteja animado por poder contribuir com esta solução, ainda há muito trabalho a fazer para tornar essa proteção prática. As empresas que desenvolvem esses modelos precisam investir no direcionamento das ameaças que essas ferramentas de IA podem representar para uma engenharia imunológica robusta .”

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário