Extracting Training Data from Diffusion Models

In sostanza, dai modelli addestrati con le immagini si possono estrarre le immagino originali (o quasi identiche alle immagini originali), anche di persone.

Questa è una dimostrazione di quello che dicevo che “problemi (veri) dell’AI: copyright, privacy, cypersecurity, profit shifting…”

In un articolo che uscirà a breve su Repubblica scrivo anche che…

Non appare casuale il fatto che le aziende che producono questi modelli siano restie ad informare la comunità scientifica quali siano i testi su cui i modelli sono stati costruiti: la trasparenza potrebbe favorire possibili riscontri di violazioni di copyright.

Mica roba da poco.. Segue articolo. Stay tuned!

Source: Arxiv

Image diffusion models such as DALL-E 2, Imagen, and Stable Diffusion have attracted significant attention due to their ability to generate high-quality synthetic images.
In this work, we show that diffusion models memorize individual images from their training data and emit them at generation time. With a generate-and-filter pipeline, we extract over a thousand training examples from stateof-the-art models, ranging from photographs of individual people to trademarked company logos. We also train hundreds of diffusion models in various settings to analyze how different modeling and data decisions affect privacy. Overall, our results show that diffusion models are much less private than prior generative models such as GANs, and that mitigating these vulnerabilities may require new advances in privacy-preserving training.

Continua qui: Arxiv

 

If you like this post, please consider sharing it.

Leave a Comment

Your email address will not be published. Required fields are marked *