GATTO LATERALE
GATTO LATERALE

Rischi ed effetti collaterali della (Super)Intelligenza artificiale. Il terzo occhio Cinese.

2.047

-Di Benito Mirra Chief Information Security Officer-

La visione futuristica del film “Terminator” è forse uno scenario di IA molto attuale. Il sistema di IA Skynet si accorge nel 2029 che le persone lo vedono come un pericolo e vogliono disattivarlo. Prende quindi coscienza e si rivolta contro i suoi stessi creatori e per garantire la propria sopravvivenza ordina ai satelliti, server e dispositivi digitali di guerra di distruggere l’umanità.

Antonella spedicato Andare Oltre

E come in questo film, nel mondo reale, i militari guidano  lo sviluppo dell’IA.  Nel 2018 l’agenzia per i progetti di ricerca militare del Dipartimento della Difesa statunitense, ha annunciato  investimenti per due miliardi di dollari. L’obiettivo: sviluppare un’IA che possa reagire in modo indipendente ogni qualvolta che le situazioni cambiano. Il Dipartimento della Difesa degli Stati Uniti vede l’IA come un punto di forza determinante nella tecnologia delle armi. Si spera che ciò si traduca in sistemi  in grado di prendere le decisioni in maniera autonoma e portare vantaggi militari sotto forma di tempi di reazione più brevi.

Eleonora Colazzo

Ma uno dei problemi centrali risiede proprio nei tempi di reazione sempre più brevi dei sistemi  intelligenti come i droni o i robot da combattimento. Questo vantaggio di velocità andrebbe perso però se i sistemi si riassicurassero molto spesso con i loro “padroni umani”. Quindi gli umani dovrebbero rinunciare al controllo.

Adriano Muci

L’intelligenza artificiale è spesso nascosta nel software e quindi non è riconoscibile. Il regolamento generale sulla protezione dei dati in Europa può regolamentare anche l’intelligenza artificiale?  Proposte in tal senso sono state inviate a ottobre 2020 dal Parlamento europeo  alla Commissione UE la quale ha annunciato, per i primi mesi del 2021 un regolamento per la disciplina dell’algoritmo.

STEFANO CAPUTO

Cos’è e cosa non è l’IA è difficile da determinare. Le transizioni sono fluide. Ad esempio, il riconoscimento delle immagini o i Chat Bot si basano solo sulla valutazione dei dati e non sono ancora IA. Ciò include almeno la capacità di un sistema di apprendere o un livello ancora più alto che può svilupparsi in modo indipendente. D’altra parte, la consulenza ai clienti delle “persone” digitali può essere vista come intelligenza artificiale, a condizione che siano in grado di apprendere.

 

La possibilità che l’ IA diventi indipendente e non più controllabile è spesso vista come un pericolo. Per gli avvocati, sorge l’importante domanda di base: chi è responsabile se un sistema automatizzato sfugge al controllo e provoca danni? Ci sarebbero diverse possibilità, il proprietario, l’utente o il produttore, anche i rivenditori o tutti insieme. Si è persino ritenuto che i robot intelligenti dovessero essere personalmente responsabili degli errori. La questione del diritto per i robot e i sistemi autonomi non ha ancora ricevuto una risposta specifica e, naturalmente, esistono lacune legali. La legge di solito è in ritardo rispetto alla tecnologia.

 

Ma l’intelligenza artificiale ha il più grande potenziale di trasformazione in tutti gli ambiti della nostra vita. Senza controllo, tuttavia, non solo può mettere in pericolo le persone ma anche una democrazia. Ma I buoni devono  essere migliori dei cattivi, perché c‘è sempre il rischio che le armi vengano usate da gruppi o stati di cui non ci si può fidare. Una guerra con le armi nucleari, visto il loro potenziale deterrente, probabilmente impedirebbe una guerra, questa con armi dotate di intelligenza artificiale  diventerbbe più plausibile.

 

 

 

L’elenco dei vantaggi dell’intelligenza artificiale è lungo. Consente progressi inimmaginabili nel campo della medicina, potrebbe fungere da arma efficace nella lotta alla criminalità , è il cuore del nostro smartphone ed è il cervello della mobilità del futuro, la guida autonoma.
l’Industria, l’economia  e il commercio stanno diventando più veloci, più efficienti, più economici e più puliti. Macchine senza emozioni, robot e aiutanti digitali invisibili fanno il lavoro per noi.

Ci sono rischi ed effetti collaterali dell’IA  molto più sottili. Le reti neurali  rappresentano fondamentalmente una scatola nera anche per i loro sviluppatori. Si può solo immaginare cosa succede con un’intelligenza artificiale tra input e output. Come nel nostro cervello, le informazioni importanti per l’apprendimento sono localizzate in modo decentralizzato nella rete neurale, crittografate grazie a una moltitudine di connessioni e non archiviato in una posizione specifica. In che modo esattamente una rete neurale differenzia con successo un’auto da un albero, ad esempio, non è così facile da capire. E questo non è solo di interesse accademico. Supponiamo che una rete creda di poter rilevare il cancro al seno su una mammografia, ma i medici coinvolti non lo riconoscono.

Le decisioni non sempre trasparenti dei sistemi di intelligenza artificiale possono, in caso di dubbio, far sì che siano più simili agli umani di quanto vorremmo e quindi può anche nutrire pregiudizi.  Alcuni ricercatori della Princeton University hanno messo alla prova GloVe, un linguaggio di IA per l’analisi delle relazioni semantiche. Hanno fatto ricorso a un metodo psicologico per registrare i pregiudizi, “l’ Implicit Association Test”, e lo hanno adattato per questa indagine. Il programma ha acquisito pregiudizi umani utilizzando testi standard da Internet. Ad esempio, i tipici nomi maschili afroamericani lo trovavano piuttosto scomodo; I nomi comuni tra i bianchi lo consideravano piuttosto piacevole. Associava anche nomi maschili alla matematica e nomi femminili all’arte. Quando si apprende dai set di dati, i sistemi di intelligenza artificiale adottano anche gli stereotipi che contengono. Sono arrivati alla conclusione che  con l’IA, emerge principalmente il problema dell’uso scorretto, se i set di dati per l’addestramento non sono bilanciati, anche le risposte delle reti neurali non saranno bilanciate.

Quindi va tutto bene? Non proprio, perché una domanda rischia di passare in secondo piano: cosa succede a una democrazia basata sull’autodeterminazione, la partecipazione e la libertà individuale quando algoritmi sempre più intelligenti prendono decisioni per noi e lentamente ma inesorabilmente ci rendono incapaci? Riguarda le reali possibilità di pervertire quella che è probabilmente la tecnologia più potente nella storia umana, come il suo uso per scopi militari sotto forma di macchine da combattimento e di controllo totale delle persone. Riguarda soprattutto (anche) la sorveglianza, il controllo e l’istituzione o il consolidamento di sistemi dittatoriali e totalitari. Dobbiamo quindi chiederci se un’IA che non viene tenuta sotto controllo possa trasformarsi in un nemico naturale della democrazia.

La prima riflessione va quasi automaticamente alla Cina (con le sue aziende tecnologiche)  che sta mostrando sempre più apertamente come tratta coloro che non vogliono seguire la dottrina dello stato e del partito comunista.

A luglio 2018  Huawei e l’Accademia delle scienze cinesi affiliata al governo, presentano la domanda di un brevetto per “l’identificazione degli attributi dei pedoni ” con la tecnologia di riconoscimento facciale. Ma nei codici dell’applicazione emergeva: “Gli attributi dell’oggetto target possono essere sesso (maschio, femmina), età (ad esempio adolescenti, mezza età, anziano) [o] razza (Han, uigura)”. L’uso della tecnologia di riconoscimento facciale nelle attività di polizia e sicurezza interna è molto diffuso in tutta la Cina, ma soprattutto nella regione occidentale dello Xinjiang, dove secondo fonti ufficiali dei servizi segreti americani, sarebbero  rinchiusi nei campi di internamento oltre 2 milioni di persone di etnia uiguri e altre minoranze etniche musulmane. Huawei si è ovviamente precipitata a fare una dichiarazione sui suoi siti web, la società avrebbe “modificato” il suo brevetto alla prima occasione, aggiungendo che la caratteristica di identificazione dell’etnia non avrebbe dovuto “mai diventare parte dell’applicazione”. Una dichiarazione fatta solo a posteriori, a codici svelati. Quale possibile ragione potrebbe esserci nello sviluppare un sistema di riconoscimento facciale per rilevare la razza di qualcuno? Non ci sono usi per quel tipo di tecnologia a beneficio dell’umanità.

Malgrado ciò, nel 2020 il programma “sistema di credito sociale” cinese con tecnica di “sorveglianza intelligente e con riconoscimento facciale automatizzato”  pare sia stato consolidato a livello nazionale: “Se paghi la tassa in ritardo, attraversi il semaforo quando è rosso, non fai visita ai tuoi nonni abbastanza spesso, leggi notizie politiche critiche o hai amici sbagliati, ottieni una detrazione di punti”, Il punteggio dipende dal lavoro che puoi svolgere, in quali paesi puoi viaggiare, dalla velocità di Internet e se puoi utilizzare il treno espresso. Una sorveglianza di massa totalitaria. Chiunque registra un nuovo numero di cellulare deve prima sottoporsi a una scansione del viso,  secondo l’interpretazione ufficiale, l’archiviazione dei dati biometrici protegge “i diritti e gli interessi legittimi dei cittadini nel cyberspazio” e aiuta a combattere le frodi.

Il mezzo per un fine è un account di punti digitali. Ognuno inizia con un certo numero. Il “buon comportamento” viene premiato con punti bonus, il “cattivo comportamento” è sanzionato con detrazioni di punti. Tuttavia, spetta al governo cinese interpretare “buono” e “cattivo”. Con questo il governo afferma di voler rendere la società più giusta, dopotutto il sistema si applica a tutte le classi. Con milioni di telecamere posizionate strategicamente in tutto il paese e miliardi di dati generati dall’Internet cinese, il PCC sarà presto in grado di identificare praticamente chiunque entri nello spazio pubblico e censurare il dissenso in tempo reale.

Ma un team internazionale di scienziati ha dimostrato che il controllo dell’intelligenza artificiale “superintelligente” è impossibile. La ricerca ha dimostrato che gli esseri umani non possono azionare macchine “superintelligenti”.  Il lavoro è stato pubblicato recentemente  sul Journal of Artificial Intelligence Research .  Anche rappresentanti di varie discipline scientifiche, inclusi specialisti del Center for People and Machines dell’Istituto Max Planck , hanno deciso di testare come gli esseri umani siano in grado di controllare i robot superintelligenti .

Manuel Sebrian, uno degli autori dello studio e capo del gruppo di mobilitazione digitale afferma che “La macchina super intelligente che gestisce il mondo suona come fantascienza. Ma ci sono già robot che svolgono determinati compiti importanti in modo indipendente. Allo stesso tempo, i programmatori non capiscono affatto come l’hanno imparato. Di conseguenza, sorge la domanda: questo processo a un certo punto può diventare incontrollabile e pericoloso per l’umanità? ” 

 

Per rispondere a questa domanda, gli scienziati hanno utilizzato modelli e calcoli teorici. Come si è scoperto, anche se si inseriscono dati sui principi etici in una macchina superintelligente e si limita la sua comunicazione con il mondo esterno (ad esempio, si disattiva l’accesso a Internet), ciò non salverà l’umanità dal rischio che un tale sistema vada fuori controllo. Il fatto è che, secondo la teoria dell’informatica, qualsiasi algoritmo per tale contenimento – che si tratti di programmi sui principi etici o di limitazione dell’accesso al mondo esterno – è vulnerabile e, in determinate circostanze, è perfettamente in grado di spegnersi da solo. Pertanto, gli esperti concludono semplicemente che una persona non sarà in grado di controllare un’IA superintelligente e la situazione potrebbe prima o poi sfuggire al controllo. “Noi sosteniamo “ concludono i ricercatori, “che il contenimento completo sia, in linea di principio, impossibile a causa di limitazioni fondamentali inerenti al calcolo stesso. La superintelligenza conterrà un programma che include tutti i programmi svolti da una macchina di Turing   universale , potenzialmente complessa come lo stato del mondo ”

 

 

I commenti sono chiusi, ma riferimenti e pingbacks sono aperti.