Storie positive di intelligenza artificiale.
[ZEUS News - www.zeusnews.it - 24-10-2023]
Questo è un articolo su più pagine: ti invitiamo a leggere la pagina iniziale
Storie positive di intelligenza artificiale
Ai primi di luglio l'attrice comica e scrittrice statunitense Sarah Silverman, insieme ad altri due autori, ha avviato una class action contro OpenAI e Meta, argomentando che i loro servizi di intelligenza artificiale violano il copyright a un livello molto fondamentale, perché includono tutto il testo dei libri di questi autori e dell'attrice, e di circa 290.000 altri libri, senza aver pagato diritti e senza autorizzazione.
Questi servizi si basano sulla lettura ed elaborazione di enormi quantità di testi di vario genere. OpenAI e Meta non hanno reso pubblico l'elenco completo dei testi usati, ma gli autori hanno notato che ChatGPT è in grado di riassumere il contenuto di molti libri con notevole precisione e quindi questo vuol dire che li ha letti. Il problema è che secondo l'accusa li ha letti prendendoli da archivi piratati. In parole povere, queste aziende starebbero realizzando un prodotto da vendere usando il lavoro intellettuale altrui senza averlo pagato [BBC; Ars Technica].
La presenza di opere protette dal copyright all'interno dei software di intelligenza artificiale sembra confermata anche da un'altra osservazione piuttosto tecnica. Molto spesso si pensa che i generatori di immagini sintetiche, come DALL-E 2 o Stable Diffusion, creino immagini originali ispirandosi allo stile delle tante immagini che hanno acquisito, ma senza copiarle pari pari: nella loro acquisizione avrebbero per così dire riassunto l'essenza di ciascuna immagine, un po' come un artista umano si ispira legittimamente a tutte le immagini che ha visto nel corso della propria vita senza necessariamente copiarle.
Ma un recente articolo scientifico intitolato Extracting Training Data from Diffusion Models, dimostra che in realtà è possibile riestrarre quasi perfettamente le immagini originali da questi software. Questo significa che se un generatore è stato addestrato usando immagini di persone, magari di tipo medico o comunque personale o privato, è possibile recuperare quelle immagini, violando la privacy e il diritto d'autore [Quintarellli.it].
I ricercatori sottolineano che il problema riguarda uno specifico tipo di generatore, quello basato sul principio chiamato diffusion, che è il più popolare ed efficace; altri tipi [i GAN, per esempio] non hanno questa caratteristica. Se il fenomeno fosse confermato, la scala della violazione del copyright da parte delle intelligenze artificiali sarebbe colossale e porrebbe un freno drastico al loro sviluppo esplosivo commerciale. Per ora, però, questo sviluppo continua, e al galoppo: Elon Musk ha appena annunciato x.AI, una nuova azienda di intelligenza artificiale il cui obiettivo leggermente ambizioso è (cito) "comprendere la vera natura dell'universo".
La questione di dove ci sta portando questo sviluppo poggia insomma su due pilastri: uno è il modo in cui scegliamo di usare queste intelligenze artificiali, per fornire nuove opportunità creative e di lavoro o per sopprimerle; e l'altro è il modo in cui vengono generate queste intelligenze, usando dati pubblicamente disponibili e non privati oppure attingendo ad archivi di provenienza illegittima stracolmi di informazioni sensibili. Forse, prima di tentare di comprendere la vera natura dell'universo, dovremmo concentrarci su questi concetti più semplici.
|
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
|
|
|

(C) by Paolo Attivissimo - www.attivissimo.net.
Distribuzione libera, purché sia inclusa la presente dicitura.
|
|
||
|
