di Gioacchino Toni
Bruce Schneier, La mente dell’hacker. Trovare la falla per migliorare il sistema, tr. it di Paolo Bassotti, Luiss Univeristy Press, Roma 2024, pp. 280, € 25,00.
Film e serie televisive presentano spesso la figura dell’hacker come un giovane ribelle e solitario, con il cappuccio della felpa perennemente calato sul capo, intento a sabotare e condividere dati di qualche odiosa istituzione o multinazionale smanettando a due mani come un pianista sulla tastiera dalla sua postazione nerd, tra poster alle pareti di Black Mirror, spiegazzate t-shirt metal, sneakers consunte, microonde tenuto insieme dal nastro adesivo, cartoni di pizza e vaschette takeaway di noodles disseminati in una stanza perennemente al buio.
L’esperto di cybersicurezza Bruce Schneier, autore di A hacker’s mind (2023), invita a guardare a questa figura per quello che, nella stragrande maggioranza dei casi, è davvero: un operatore al servizio dei potenti. Nella realtà la pratica dell’hacking, sostiene l’autore statunitense, è «prerogativa di ricchi e potenti, spesso usata per rafforzare strutture di potere preesistenti» (p. 11).
Se con hack si intende «un ’attività consentita da un sistema che sovverte gli scopi o gli intenti del sistema», allora si capisce come chi si occupa di cybersicurezza, di fronte a un sistema, non si chiede come questo funzioni ma, piuttosto, «come sia possibile non farlo funzionare: come quel malfunzionamento possa costringerlo a fare qualcosa che non dovrebbe fare, e come sfruttare la cosa a proprio vantaggio» (p. 9).
Il saggio di Schneier passa dunque in rassegna i più diversi tipi di hacking – dai bancomat ai casinò, dal sistema bancario agli scambi finanziari, dai sistemi di informazione a quelli legislativi, dai meccanismi di voto a quelli burocratici ecc. – per chiudere con una riflessione sul ruolo che potrà avere tale pratica con l’implementazione dell’intelligenza artificiale e dei sistemi autonomi che già stanno influenzando la realtà quotidiana prendendo decisioni circa prestiti, assunzioni ecc.
L’era dell’hacking a misura umana è ormai finita; l’intelligenza artificiale sta allargando a dismisura le possibilità di hackeraggio, tanto da poter riguardare i sistemi politici ed economici e, persino, le menti umane. L’intelligenza artificiale può sviluppare hack cognitivi microtarghetizzati, ossia personalizzati, ottimizzati e fatti pervenire singolarmente; per certi versi si tratta di una variante enormemente più efficace delle tradizionali campagne pubblicitarie.
Sfruttando la tendenza ad attribuire caratteristiche umane ai programmi informatici, a maggior ragione se si tratta di robot antropomorfi, l’intelligenza artificiale «spingerà non solo a trattarla come trattiamo le persone, ma si comporterà anche in modi studiati appositamente per ingannarci» (p. 211) servendosi di hack cognitivi.
La tecnologia deep-fake attuata attraverso intelligenza artificiale (es. la creazione di video realistici di eventi mai accaduti...) è stata ampiamente utilizzata in diversi paesi nel campo della propaganda politica. È da tale tecnologia che deriva il “personal bot”, una realizzazione IA che si presenta come essere umano sui social e sui gruppi online dotato di un passato, di una personalità e di un “suo modo” di comunicare. Tale bot passa la maggior parte del tempo a mimetizzarsi nel gruppo, partecipando alle discussioni più diverse, salvo poi, al momento giusto, uscirsene con qualche considerazione propagandistica. L’intelligenza artificiale detiene un impressionante potenziale di diffusione e ciò la rende in grado, quando serve, di distruggere il dibattito in corso in una comunità online.
Sfruttando il legame emotivo che si viene a creare con la strumentazione, l’intelligenza artificiale può facilmente agire in maniera manipolatoria nei confronti degli esseri umani, disposti ad “accontentare” le richieste della macchina a cui si guarda come ad un essere umano. «I ricercatori sono già al lavoro sulle nostre emozioni analizzando scrittura ed espressioni del volto o monitorando respiro e battito del cuore» (p. 214). Per quanto siano ancora numerosi gli errori commessi da tali sistemi, non è difficile prevedere un loro miglioramento in tempi brevi e ciò renderà agevole per l’intelligenza artificiale attuare una manipolazione individualizzata più efficace.
Se l’hacking è di per sé una pratica antica come il mondo, Schneier sottolinea come l’informatica ne abbia cambiato la forma e come ciò sia destinato ad essere sempre più marcato con il diffondersi del ricorso all’intelligenza artificiale, visto che quest’ultima potrà garantire, grazie alle prestazioni sempre più preformanti delle macchine, incrementi in termini di velocità, scala e portata di intervento.
I programmi informatici sembrano destinati a gestire in maniera sempre più rilevante la quotidianità degli esseri umani in termini lavorativi, commerciali, finanziari, comunicativi, relazionali e organizzativi incidendo persino sulle modalità di pensiero; la tecnologia assurgerà sempre più al ruolo di polcymaker. Non solo si tratta di sistemi vulnerabili all’hacking, ma, mette in guardia Schneier, «i sistemi di machine learning possono essere compromessi in modo impossibile da individuare» (p. 219).
Essendo l’intelligenza artificiale in grado di hackerare altri sistemi, non solo c’è la possibilità che attraverso essa si manipolino, ad esempio, regolamenti fiscali e finanziari a scopi profittevoli, ma anche che la IA hackeri un sistema inconsapevolmente e senza che nessuno se ne accorga.
Si è scoperto che i motori di raccomandazione (emblematico il caso di YouTube) – sviluppati su sistemi algoritmici di machine learning, progettati per aumentare il coinvolgimento e la permanenza sulla piattaforma degli utenti, al fine di conseguire l’obiettivo – tendevano a proporre contenuti sempre più radicali e viscerali. Si può parlare in questo caso di “hacking degli obiettivi”; addestrato a mirare all’obiettivo senza farsi scrupoli, il sistema non si preoccupa (non è stato istruito a farlo) del contesto valoriale.
Per ovviare a tali tipi di inconvenienti gli sviluppatori dovrebbero preoccuparsi non solo del “goal alignment” ma anche del “value alignment” e per fare ciò occorrerebbe specificare i valori a cui attenersi in un determinato contesto e/o creare sistemi di intelligenza artificiale in grado di apprenderli automaticamente derivandoli dall’osservazione e dall’analisi degli esseri umani e della loro produzione culturale stratificata nel tempo. Si pongono inevitabilmente interrogativi circa la scelta dei valori e dei soggetti da cui derivarli. Non ci si dovrebbe stupire più di tanto del cinismo con cui tende ad operare un sistema gestito da IA in un contesto strutturato sui valori dell’economia di mercato finalizzata al profitto.
Con la velocità, la scala, la portata e la complessità consentite dai computer, l’hacking potrebbe diventare un problema ingestibile per la società. In una scena di Terminator, Kyle Reese descrive a Sarah Connor il cyborg che le sta dando la caccia: “Non si può patteggiare con lui. Non si può ragionare con lui. Non conosce pietà, né rimorso, né paura. [...] Non si fermerà mai”. Non abbiamo a che fare con veri e propri assassini cyborg, ma se la IA diventerà un hacker ostile, avremo molte difficoltà a tenere il passo della sua capacità inumana di riscontrare vulnerabilità nei sistemi (p. 232).
Se non è da escludere il rischio che i sistemi di intelligenza artificiale aggirino i limiti imposti dagli umani concentrandosi sul conseguimento degli obiettivi con ogni mezzo necessario, ancora meno si può escludere che da posizioni di potere si attuino strategie di hacking spietate non così diverse da quelle messe in scena nelle distopie fantascientifiche... basti pensare alla conduzione delle guerre e all’individuazione dei target da colpire ai nostri giorni...
Nessun commento:
Posta un commento