Storie positive di intelligenza artificiale.
[ZEUS News - www.zeusnews.it - 24-10-2023]
Questo è un articolo su più pagine: ti invitiamo a leggere la pagina iniziale
Storie positive di intelligenza artificiale
Ai primi di luglio l'attrice comica e scrittrice statunitense Sarah Silverman, insieme ad altri due autori, ha avviato una class action contro OpenAI e Meta, argomentando che i loro servizi di intelligenza artificiale violano il copyright a un livello molto fondamentale, perché includono tutto il testo dei libri di questi autori e dell'attrice, e di circa 290.000 altri libri, senza aver pagato diritti e senza autorizzazione.
Questi servizi si basano sulla lettura ed elaborazione di enormi quantità di testi di vario genere. OpenAI e Meta non hanno reso pubblico l'elenco completo dei testi usati, ma gli autori hanno notato che ChatGPT è in grado di riassumere il contenuto di molti libri con notevole precisione e quindi questo vuol dire che li ha letti. Il problema è che secondo l'accusa li ha letti prendendoli da archivi piratati. In parole povere, queste aziende starebbero realizzando un prodotto da vendere usando il lavoro intellettuale altrui senza averlo pagato [BBC; Ars Technica].
La presenza di opere protette dal copyright all'interno dei software di intelligenza artificiale sembra confermata anche da un'altra osservazione piuttosto tecnica. Molto spesso si pensa che i generatori di immagini sintetiche, come DALL-E 2 o Stable Diffusion, creino immagini originali ispirandosi allo stile delle tante immagini che hanno acquisito, ma senza copiarle pari pari: nella loro acquisizione avrebbero per così dire riassunto l'essenza di ciascuna immagine, un po' come un artista umano si ispira legittimamente a tutte le immagini che ha visto nel corso della propria vita senza necessariamente copiarle.
Ma un recente articolo scientifico intitolato Extracting Training Data from Diffusion Models, dimostra che in realtà è possibile riestrarre quasi perfettamente le immagini originali da questi software. Questo significa che se un generatore è stato addestrato usando immagini di persone, magari di tipo medico o comunque personale o privato, è possibile recuperare quelle immagini, violando la privacy e il diritto d'autore [Quintarellli.it].
I ricercatori sottolineano che il problema riguarda uno specifico tipo di generatore, quello basato sul principio chiamato diffusion, che è il più popolare ed efficace; altri tipi [i GAN, per esempio] non hanno questa caratteristica. Se il fenomeno fosse confermato, la scala della violazione del copyright da parte delle intelligenze artificiali sarebbe colossale e porrebbe un freno drastico al loro sviluppo esplosivo commerciale. Per ora, però, questo sviluppo continua, e al galoppo: Elon Musk ha appena annunciato x.AI, una nuova azienda di intelligenza artificiale il cui obiettivo leggermente ambizioso è (cito) "comprendere la vera natura dell'universo".
La questione di dove ci sta portando questo sviluppo poggia insomma su due pilastri: uno è il modo in cui scegliamo di usare queste intelligenze artificiali, per fornire nuove opportunità creative e di lavoro o per sopprimerle; e l'altro è il modo in cui vengono generate queste intelligenze, usando dati pubblicamente disponibili e non privati oppure attingendo ad archivi di provenienza illegittima stracolmi di informazioni sensibili. Forse, prima di tentare di comprendere la vera natura dell'universo, dovremmo concentrarci su questi concetti più semplici.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
|
|
(C) by Paolo Attivissimo - www.attivissimo.net.
Distribuzione libera, purché sia inclusa la presente dicitura.
|
||
|