Le MIT dévoile la technologie PhotoGuard qui protège les images des modifications malveillantes de l'IA

巴比特_

Écrit par : Andrew Tarantola

Source : Engadget

Source de l’image : générée par l’outil d’IA illimitée

Dall-E et Stable Diffusion ne sont qu’un début. Les chatbots sur Internet acquièrent la capacité d’éditer et de créer des images, avec des entreprises comme Shutterstock et Adobe en tête, alors que les systèmes générés par l’IA gagnent en popularité et que les entreprises s’efforcent de différencier leurs produits de ceux de leurs concurrents. Mais ces nouvelles capacités d’IA posent également des problèmes familiers, tels que la falsification non autorisée ou le détournement pur et simple d’œuvres et d’images en ligne existantes. La technologie de filigrane peut aider à réduire ce dernier problème, tandis que la nouvelle technologie “PhotoGuard” développée par MIT CSAIL peut nous aider à prévenir le premier.

Il est rapporté que PhotoGuard fonctionne en modifiant certains pixels de l’image, détruisant ainsi la capacité de l’IA à comprendre le contenu de l’image. Ces « perturbations », comme les appelle l’équipe de recherche, sont invisibles pour l’œil humain mais faciles à lire pour les machines. La méthode d’attaque “d’encodage” qui introduit ces artefacts cible la représentation sous-jacente du modèle algorithmique de l’image cible - les mathématiques complexes qui décrivent la position et la couleur de chaque pixel de l’image - empêchant essentiellement l’IA de comprendre de quoi il s’agit. regardant. (Remarque : Les artefacts font référence à diverses formes d’images qui n’existent pas dans l’objet numérisé mais qui apparaissent sur l’image.)

De plus, des méthodes d’attaque de “diffusion” plus avancées et plus gourmandes en calculs déguisent une image en une autre image pour les yeux de l’IA. Il définira une image cible et optimisera les perturbations dans son image pour qu’elle soit similaire à l’image cible. Toutes les modifications que l’IA essaie d’apporter à ces images “immunisées” sont appliquées aux fausses images “cibles”, produisant des images qui ne semblent pas réelles.

“L’attaque de l’encodeur fait penser au modèle que l’image d’entrée (à éditer) est une autre image (comme une image en niveaux de gris)”, a déclaré Hadi Salman, étudiant au doctorat au MIT et premier auteur de l’article, à Engadget. “Et une attaque par diffusion oblige le modèle de diffusion à modifier une image cible, qui peut également être une image grise ou aléatoire.” Images protégées pour la rétro-ingénierie.

“Une approche collaborative impliquant des développeurs de modèles, des plateformes de médias sociaux et des décideurs politiques peut constituer une défense efficace contre la manipulation non autorisée d’images. Il est aujourd’hui essentiel de résoudre ce problème urgent”, a déclaré Salman dans un communiqué. “Bien que je sois ravi de pouvoir contribuer à cette solution, il reste encore beaucoup de travail à faire pour rendre cette protection pratique. Les entreprises développant ces modèles doivent investir dans le ciblage des menaces que ces outils d’IA peuvent poser pour une ingénierie immunitaire robuste. .”

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire