Presentazione


Aggregatore d'analisi, opinioni, fatti e (non troppo di rado) musica.
Cerco

18/05/2023

Dibattito sull’IA e sul futuro, perché è così difficile?

Nella scorsa newsletter abbiamo visto la presa di posizione di Geoff Hinton, uno dei ricercatori più importanti per lo sviluppo del deep learning, sulla corsa all’AI e i suoi rischi.

Anche se ho cercato di evitare quell’etichetta, molti media lo hanno definito il padrino dell’AI. Ora il Guardian ha intervistato quello che chiama “il padre dell’AI”, il ricercatore tedesco Jürgen Schmidhuber, attualmente direttore dell’iniziativa sull’AI della King Abdullah University of Science and Technology in Arabia Saudita. Il quale ci fa sapere che la corsa all’AI è inarrestabile.

AI inarrestabile e non dobbiamo preoccuparci, dice Schmidhuber

“Sicuramente non a livello internazionale – dice al Guardianperché un Paese potrebbe avere obiettivi molto diversi da un altro. Quindi, ovviamente, non parteciperanno a una sorta di moratoria. Ma penso che non la si dovrebbe nemmeno fermare. Perché nel 95% dei casi, la ricerca sull’AI ha a che fare con il nostro vecchio motto, che è quello di rendere le vite umane più lunghe, più sane e più facili“.

Bisogna però notare che le sue idee al riguardo erano già così anni fa, e quindi non sarebbero dovute a un’analisi degli ultimissimi sviluppi. Diceva infatti nel 2017, sempre al Guardian: “Molto presto, i decisori più intelligenti e più importanti potrebbero non essere umani. Siamo sull’orlo non di un’altra rivoluzione industriale, ma di una nuova forma di vita, più simile al big bang“.

Perché è difficile seguire il dibattito

Dare conto del dibattito in corso comporta una certa fatica. Una fatica espressa questa settimana dal giornalista Casey Newton, che nella sua ultima newsletter – intitolata Perché ho problemi a coprire l’AI – scrive: “Il motivo per cui ultimamente ho difficoltà a occuparmi di AI è che c’è un’elevata varietà nel modo in cui le persone che hanno esaminato la questione più approfonditamente pensano al rischio.
Quando l’elenco dei possibili futuri va da un comunismo di lusso pienamente automatizzato alle rovine fumanti della nostra attuale civiltà, da dove dovrebbe iniziare il giornalista? (La risposta abituale è parlare con molte persone. Ma qui le persone interessate dicono cose molto diverse)”
.

A questa prospettiva – disegnata da un settore in rapida e tumultuosa evoluzione, ma anche deformata da una quantità di tecnologie, prodotti e applicazioni molto diversi, tutti forzatamente fatti rientrare dentro l’asso pigliatutto chiamato AI – aggiungerei il carico dell’hype mediatico e finanziario cui stiamo assistendo (del primo ho parlato qui – del secondo ne accenna questo podcast del WSJ in cui si dice che gli investitori stanno correndo a mettere soldi su startup di AI che non hanno nemmeno ancora né modello di business, né nome).

La lettera ai media e ai politici su come viene rappresentata l’AI

A movimentare un po’ il quadro – dato che già ci stavamo annoiando – questa settimana è arrivata anche una lettera aperta ai media e ai legislatori da parte di alcune ricercatrici e accademicə (si definiscono “donne e persone non binarie”), che lavorano sull’intelligenza artificiale e che chiedono senza mezzi termini di espandere il bacino di esperti sentiti su questi temi.

Riporto frammenti della lettera: “Per troppo tempo la copertura mediatica delle minacce e dei rischi di questa tecnologia è stata definita dai CEO del settore tech e dai loro dipartimenti di pubbliche relazioni. Nel frattempo, i danni causati dalle stesse continuano a ricadere in modo sproporzionato sulle comunità di cui facciamo parte”.

Abbiamo scritto libri – prosegue la lettera – denunciato alcune delle più grandi aziende tecnologiche, condotto ricerche, “eppure, nelle consultazioni sui rischi e le sfide che queste tecnologie comportano, rimaniamo ai margini. Poiché discutiamo di pericoli reali e attuali e non di fantascienza, le nostre preoccupazioni vengono presentate come trascurabili. Nel frattempo, ex dirigenti di aziende tecnologiche, dopo aver tratto profitto dai sistemi che hanno creato, diventano improvvisamente attivisti (...) Rifiutiamo la premessa che solo uomini bianchi e ricchi possano decidere cosa costituisce una minaccia esistenziale per la società”.

Firmano varie ricercatrici e accademiche tra cui Timnit Gebru e Safiya U. Noble (e se avevate letto la newsletter scorsa, questa lettera non vi sorprenderà).

AI e il rapporto col potere

Questo genere di critica è portata avanti in modo ancora più profondo e duro da un libro (poco citato, rispetto ad altri) uscito nel 2020 e intitolato: Artificial Whiteness. Politics and Ideology in Artificial Intelligence, di Yarden Katz per la Columbia University Press.

Penso che sia il libro di critica più radicale che abbia letto finora sul tema (lo sottolineo perché almeno sapete a cosa andate incontro: è un libro di critica politica e ideologica fortemente angolato).

La whiteness a cui si riferisce il titolo è ovviamente un costrutto sociale e un concetto politico: in sostanza, per Katz l’intelligenza artificiale è ed è stata sempre un’etichetta nebulosa che poteva riconfigurarsi al servizio del potere.

Per spiegarlo, l’autore tratteggia gli stretti legami tra ricerca, accademia, industria e governi, e in questi ultimi in particolar modo col settore militare. E non si salva quasi nessuno, nemmeno molti degli stessi critici dell’AI, perché incapaci – secondo Katz – di andare alla radice della questione; perché soffermarsi solo sui dati o sui bias è come spalare acqua durante un’inondazione con un cucchiaino (il libro però è del 2020, e negli ultimi tre anni le voci critiche sono cresciute e si sono approfondite).

Katz sottolinea la presunzione che questi sistemi rappresentino “uno sguardo da nessun luogo” – una “intelligenza” universale non segnata da politica e contesto sociale. Anzi, secondo la sua visione l’AI aspira invece “a essere totalizzante: a dire qualcosa di definitivo sui limiti e potenziali della vita umana”.

La sua critica è molto forte, e sebbene ci siano delle parti delle sue argomentazioni che trovo più deboli, incluse le pagine dedicate alle alternative, prendere anche solo un pezzo di questa prospettiva ci aiuta a capire di più lo scontro di vedute, previsioni e soluzioni a cui stiamo assistendo. E qui chiudo la parentesi di critica ideologica.

In sintesi

Torniamo alla corsa all’AI. Ricapitolando, da quando questa è andata avanti a briglia sciolta, dal lancio di ChatGPT in avanti, abbiamo assistito:

- alla lettera di scienziati e imprenditori assortiti (tipo Musk) che vogliono fermarla per sei mesi;

- a chi (Hinton), pur non firmando la suddetta lettera, dice di lasciare (Google) per esprimersi in modo più libero sui rischi esistenziali per l’umanità posti da una tecnologia che ha contribuito a sviluppare;

- a chi ci rassicura (si fa per dire) che l’AI sarà così intelligente che manco ci calcolerà (Schmidhuber);

- e a chi (la lettera aperta appena citata) sottolinea come molti di questi rischi esistenziali siano una comoda copertura, particolarmente amata da ricchi ricercatori maschi occidentali, per non parlare dei danni o delle storture che questi sistemi hanno già fatto, stanno facendo e continueranno a fare a chi non rientra in quella ristretta categoria sociale.

Insomma, l’AI non è e non sarà un pranzo di gala. E la diversità di vedute è anche una diversità di visioni politiche, cognitive, ideologiche. Già nel 2020 Jaron Lanier scriveva che “l’AI si comprende di più come ideologia politica e sociale che come un insieme di algoritmi“.

E intanto c’è chi propone un ‘progetto Manhattan’ per la sicurezza dell’AI – il progetto Manhattan fu il piano di ricerca e sviluppo, promosso dal governo degli Stati Uniti, che portò alla progettazione e alla costruzione della prima bomba atomica.

“L’analogia con il Progetto Manhattan non è perfetta, ma aiuta a segnare la differenza con coloro che sostengono che la sicurezza dell’AI richieda di sospendere del tutto la ricerca di modelli più potenti. Il progetto non mirava a rallentare la costruzione di armi atomiche, ma a dominarla”, scrive su Politico l’autore Samuel Hammond, un economista di scuola liberista.

C’è ovviamente una contraddizione interna in questa analogia e l’autore se ne rende conto, quando scrive “per certi versi l’obiettivo è esattamente l’opposto del primo Progetto Manhattan, che ha aperto le porte a distruzioni inimmaginabili. Questa volta, l’obiettivo deve essere quello di prevenire distruzioni inimmaginabili, oltre a quelle semplicemente difficili da prevedere”.

Ma il riferimento al progetto Manhattan nasce dall’idea che gli Stati (in questo caso gli Usa) debbano arrivare per primi a dominare una tecnologia nuova, dirompente e anche rischiosa, il che riporta l’AI nel campo della lotta geopolitica e in qualche modo qua ci ricolleghiamo a Katz.

Fonte

Nessun commento:

Posta un commento