Fino a pochi giorni fa l'azienda si impegnava ufficialmente a non creare IA dannose. Poi qualcosa è cambiato.
[ZEUS News - www.zeusnews.it - 05-02-2025]
Il primo ad accorgersene è stato Bloomberg: dalla pagina del sito di Google dedicata ai principi secondo i quali l'azienda si muove per lo sviluppo delle intelligenze artificiali è sparita una sezione.
Detta sezione - che si può ancora consultare nella versione conservata da Archive.org - è quella dedicata alle applicazioni della IA che Google non intende né sostenere né portare avanti.
L'elenco, di queste applicazioni, disponibile in un file PDF originariamente presente nella pagina, prevedeva che Google non si sarebbe mai impegnata in quattro aree:
1. Tecnologie che complessivamente causano o possono causare danni. In presenza di un rischio concreto di danno, procederemo solo se riterremo che i benefici siano sostanzialmente superiori ai rischi, e incorporeremo incorporare adeguati vincoli di sicurezza.
2. Armi o altre tecnologie il cui scopo principale è causare lesioni alle persone.
3. Tecnologie che raccolgono o utilizzano informazioni per la sorveglianza in violazione di norme norme accettate a livello internazionale.
4. Tecnologie il cui scopo contravviene a principi ampiamente accettati del diritto internazionale e dei diritti umani.
Bisogna riconoscere che, immediatamente dopo l'elenco, nel documento era presente una postilla che recitava: «Man mano che la nostra esperienza in questo spazio si approfondisce, questo elenco potrebbe evolversi». Solo che l'elenco non si è evoluto: è scomparso.
Google si dedicherà quindi anche allo sviluppo di IA potenzialmente letali? Non necessariamente, anche se l'impegno azienda è certamente ora più fumoso.
Al posto della pagina rimossa, ora c'è un post intitolato I nostri principi, nel quale si può leggere: «Crediamo che le aziende, i governi e le organizzazioni che condividono questi valori debbano lavorare insieme per creare delle IA che proteggano le persone, promuovano la crescita globale e sostengano la sicurezza nazionale».
Google si impegna altresì a «ridurre i risultati imprevisti o dannosi e a evitare pregiudizi ingiusti» secondo «i principi ampiamente accettati nel diritto internazionale a i diritti umani».
Che cosa tutto ciò significhi in concreto è lasciato all'immaginazione di ciascuno, soprattutto considerato la feroce concorrenza che continua a svilupparsi nel settore della IA.
Se questo articolo ti è piaciuto e vuoi rimanere sempre informato con Zeus News
ti consigliamo di iscriverti alla Newsletter gratuita.
Inoltre puoi consigliare l'articolo utilizzando uno dei pulsanti qui
sotto, inserire un commento
(anche anonimo)
o segnalare un refuso.
© RIPRODUZIONE RISERVATA |
|
|
||
|
Gladiator