Cari amici1, membri del pubblico, personale del locale e tutte le persone della mia vita senza la cui saggezza e il cui supporto non sarei qui oggi, grazie di cuore. È un profondo onore ricevere l’Helmut Schmidt Future Prize 2024 e sono molta grata alla giuria per questo riconoscimento e a te, Francesca, per le tue osservazioni nel tuo discorso elogiativo. Sono una grande ammiratrice del tuo lavoro, quindi questo è ancora più speciale per me.
Accetto questo premio in un momento storico difficile. Stiamo osservando i baluardi dell’ordine globale basato sulle regole gemere, oscillare e cedere mentre aumentano le pressioni illiberali. Ed è con questo in mente che vi chiedo perdono mentre procedo a fare un appello urgente in un contesto generalmente riservato a riconoscimenti, ringraziamenti e visioni ottimistiche.
Non fraintendetemi: sono ottimista, ma il mio ottimismo è un invito all’analisi e all’azione, non un lasciapassare per l’autocompiacimento.
Con questo in mente, voglio iniziare con alcune definizioni per assicurarmi che stiamo tutti leggendo lo stesso spartito. Perché molto spesso, in questo discorso basato sull’hype, non lo siamo. E troppo raramente dedichiamo tempo alle domande fondamentali, le cui risposte, vedremo, cambiano radicalmente la nostra prospettiva. Domande come: cos’è l’IA? Da dove viene? E perché è ovunque, garantendo promesse di onniscienza, coscienza automatizzata e ciò che può essere descritto solo come magia?
Bene, prima di tutto rispondo: AI è un termine di marketing, non un termine tecnico dell’arte. Il termine “intelligenza artificiale” è stato coniato nel 1956 dallo scienziato cognitivo e informatico John McCarthy, circa un decennio dopo la creazione delle prime architetture di rete proto-neurali. Nelle interviste successive McCarthy è molto chiaro sul motivo per cui ha inventato il termine. Innanzitutto, non voleva includere il matematico e filosofo Norbert Wiener in un workshop che stava ospitando quell’estate. Vedete, Wiener aveva già coniato il termine “cibernetica”, sotto la cui egida era allora organizzato il campo. McCarthy voleva creare il suo campo, non contribuire a quello di Norbert, che è il modo in cui si diventa il “padre” invece che un discepolo devoto. Questa è una dinamica familiare per coloro che hanno familiarità con la politica accademica “nome e rivendicazione”. In secondo luogo, McCarthy voleva i fondi delle sovvenzioni. E pensava che l’espressione “intelligenza artificiale” fosse abbastanza accattivante da attrarre tali finanziamenti dal governo degli Stati Uniti, che all’epoca stava investendo ingenti risorse nella ricerca tecnica al servizio del predominio della guerra fredda del dopoguerra.
Ora, nel corso di oltre 70 anni di storia del termine, “intelligenza artificiale” è stata applicata a una vasta ed eterogenea gamma di tecnologie che hanno poca somiglianza tra loro. Oggi, e in tutto il tempo, connota più aspirazione e marketing che un approccio tecnico coerente. E il suo utilizzo è entrato e uscito di moda, nel tempo con le prerogative di finanziamento e il ciclo di clamore-delusione.
Allora perché l’intelligenza artificiale è ovunque oggi? O perché è emersa nell’ultimo decennio come la grande novità?
La risposta a questa domanda è affrontare il tossico modello di business della sorveglianza e i grandi monopoli tecnologici che hanno costruito i loro imperi su questo modello.
Le radici di questo modello di business possono essere fatte risalire agli anni ’90, come dimostra il lavoro dello studioso Matthew Crain. In un impeto di entusiasmo per commercializzare il calcolo in rete, l’amministrazione Clinton ha stabilito le regole del gioco per l’internet orientata al profitto nel 1996. Così facendo, ha commesso due peccati originali, peccati per i quali stiamo ancora pagando oggi.
In primo luogo, nonostante fossero stati avvertiti dai sostenitori e dalle agenzie all’interno del loro stesso governo circa le preoccupazioni sulla privacy e sulle libertà civili che la dilagante raccolta di dati su reti non sicure avrebbe prodotto, non hanno posto NESSUNA restrizione alla sorveglianza commerciale. Nessuna. Le aziende private sono state liberate per raccogliere e creare quante più informazioni intime su di noi e sulle nostre vite desiderassero, molto più di quanto fosse consentito ai governi. (I governi, ovviamente, hanno trovato il modo di accedere a questa miniera d’oro della sorveglianza aziendale, come hanno rivelato i documenti di Snowden.) E negli Stati Uniti, nel 2024 non abbiamo ancora una legge federale sulla privacy. In secondo luogo, hanno esplicitamente approvato la pubblicità come modello di business dell’Internet commerciale, soddisfacendo i desideri degli inserzionisti che già dominavano i media cartacei e televisivi.
Questa combinazione era, ed è, veleno. Perché, ovviamente, l’imperativo della pubblicità è “conosci il tuo cliente”, al servizio dell’identificazione delle persone più propense a essere convinte ad acquistare o fare le cose che vuoi che facciano. E per conoscere il tuo cliente devi raccogliere dati su di lui. Ciò ha incentivato la sorveglianza di massa, che ora alimenta governi e industria privata ben oltre la pubblicità, con una crittografia avanzata che funge da uno dei nostri pochi controlli significativi su questa dinamica.
Su questa base tossica, nel corso degli anni 2000, le piattaforme Big Tech si sono affermate attraverso la ricerca, i social media, i marketplace, gli scambi di annunci e molto altro. Hanno investito in ricerca e sviluppo per consentire una raccolta e un’elaborazione dei dati più rapide e più grandi e per costruire e massimizzare infrastrutture e tecniche computazionali che potessero facilitare tale raccolta e “uso” dei dati. Le economie di scala, gli effetti di rete e le dinamiche auto-rafforzanti delle infrastrutture di comunicazione hanno consentito alle aziende che hanno iniziato questo modello tossico di stabilire un predominio monopolistico. Ciò è stato aiutato dall’uso del soft power, degli accordi commerciali e del predominio imperiale da parte del governo degli Stati Uniti per garantire che l’UE e altre giurisdizioni adottassero il paradigma statunitense.
Questa storia aiuta a spiegare perché la maggior parte delle grandi aziende tecnologiche del mondo ha sede negli Stati Uniti, mentre il resto emerge dalla Cina. Gli Stati Uniti hanno avuto un vantaggio, tramite infrastrutture militari e politiche e investimenti neoliberisti, mentre la Cina ha costruito un mercato autonomo, in grado di supportare le proprie piattaforme con le proprie norme per i contenuti che hanno ulteriormente limitato la concorrenza esterna. Il che significa anche che la storia dell’UE che “soffoca l’innovazione tramite regolamentazione” è sia sbagliata, sia sospettosamente egoistica quando proviene dalla bocca dei giganti della tecnologia e dei loro hype men.
Qui potresti fermarti, riflettere e chiedere… ma cosa c’entra questa sordida storia con l’IA? Beh, c’entra tutto con l’IA.
Nel 2012, proprio mentre le piattaforme di sorveglianza stavano consolidando il loro predominio, i ricercatori hanno pubblicato un articolo molto importante sulla classificazione delle immagini AI, che ha dato il via all’attuale corsa all’oro dell’AI. L’articolo ha dimostrato che una combinazione di computer potenti e grandi quantità di dati potrebbe migliorare significativamente le prestazioni delle tecniche AI, tecniche che a loro volta sono state create alla fine degli anni ’80. In altre parole, ciò che era nuovo nel 2012 non erano gli approcci all’AI, i metodi e le procedure. Ciò che ha “cambiato tutto” nell’ultimo decennio sono state le sbalorditive risorse computazionali e di dati recentemente disponibili e quindi nuovamente in grado di animare i vecchi approcci.
In altre parole, l’attuale mania dell’intelligenza artificiale è il risultato di questo modello di business di sorveglianza tossica. Non è dovuto a nuovi approcci scientifici che, come la stampa, hanno cambiato radicalmente un paradigma. E mentre nuovi framework e architetture sono emersi nel decennio intermedio, questo paradigma è ancora valido: sono i dati e il calcolo a determinare chi “vince” e chi perde.
Ciò che oggi chiamiamo IA è nato da questo modello tossico e deve essere inteso principalmente come un modo per commercializzare i derivati della sorveglianza di massa e della piattaforma concentrata e del potere computazionale. Attualmente, ci sono solo una manciata di aziende, con sede negli Stati Uniti e in Cina, che hanno le risorse per creare e distribuire l’IA su larga scala dall’inizio alla fine. Questi sono i monopoli del cloud e delle piattaforme, quelli che si sono affermati presto sulle spalle del modello di business della sorveglianza. Tutti gli altri stanno concedendo in licenza l’infrastruttura, lottando per i dati e lottando per trovare un mercato adatto senza enormi infrastrutture cloud attraverso cui l’IA può essere concessa in licenza ai clienti o enormi piattaforme in cui l’IA può essere integrata come una funzionalità o un servizio che tocca miliardi di persone.
Ecco perché persino le “startup” di intelligenza artificiale di maggior successo, Open AI, Mistral, Inflection, finiscono per trasformarsi in cirripedi sullo scafo della nave Big Tech, la nave Microsoft, nel loro caso. Ecco perché Anthropic deve essere inteso come una specie di sussidiaria di Google e Amazon.
Oltre alle attuali tecnologie che vengono chiamate “AI”, dobbiamo anche guardare alla narrazione dell’AI stessa. La storia che anima il marketing e l’hype odierno: come viene utilizzato questo termine di marketing? Brandendo racconti quasi religiosi su computer coscienti, intelligenza artificiale generale, piccoli elfi che stanno nelle nostre tasche e, come servi, soddisfano ogni nostro desiderio, le grandi aziende hanno spianato la strada a un dominio senza precedenti.
Descrivendo i loro prodotti e servizi come l’apice del “progresso umano” e del “progresso scientifico”, queste aziende e i loro sostenitori stanno estendendo la loro portata e il loro controllo in quasi tutti i settori della vita, in quasi ogni regione della terra. Fornendo l’infrastruttura per governi, aziende, media e militari. Stanno vendendo i derivati del modello di business della sorveglianza tossica come il prodotto dell’innovazione scientifica.
E stanno lavorando per convincerci che i sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati sono strumenti oggettivi, intelligenti e sofisticati, capaci di quasi ogni funzione immaginabile. Di sicuro più capaci di noi, semplici mortali. E quindi dovremmo farci da parte e affidare a loro i nostri affari.
Ciò è incredibilmente pericoloso. La ricerca metastatica di crescita e fatturato senza fine guidata dal capitalismo azionario che alla fine spinge queste enormi corporazioni spesso diverge dal percorso verso un futuro vivibile.
Ci sono molti esempi che illustrano quanto sia pericoloso affidare le nostre infrastrutture principali e le decisioni di governance sensibili a questi pochi attori centralizzati. Studiosi come Abeba Birhane, Seda Gürses, Alex Hannah, Khadijah Abdurahman, Jathan Sadowski, Dan McQuillian, Amba Kak e Sarah Myers West, tra molti altri, hanno spiegato tali esempi in modo approfondito e con attenzione.
Qui, mi fermerò a riflettere su una tendenza particolarmente angosciante, che a mio avviso espone la tendenza più pericolosa di tutte. Queste enormi aziende di sorveglianza AI si stanno muovendo per diventare appaltatori della difesa, fornendo armi e infrastrutture di sorveglianza a militari e governi che scelgono di armare e con cui cooperano.
Siamo tutti abituati a vedere annunci nei nostri feed per pantaloni da yoga (anche se non fai yoga) o uno scooter (anche se ne hai appena comprato uno), o qualsiasi altra cosa. Li vediamo perché la società di sorveglianza che gestisce il mercato pubblicitario o la piattaforma social ha stabilito che si presume che queste siano cose che “persone come noi” vogliono o da cui sono attratte, in base a un modello di comportamento costruito utilizzando dati di sorveglianza. Dal momento che altre persone con modelli di dati simili ai tuoi hanno acquistato uno scooter, la logica è che probabilmente ne comprerai uno (o almeno cliccherai su un annuncio per uno). E quindi ti viene mostrato un annuncio. Sappiamo quanto sia impreciso e stravagante questo tipo di targeting. E quando si tratta di un annuncio, non è una crisi quando è mal indirizzato.
Ma quando la situazione è più seria, la storia è diversa.
Possiamo far risalire questa storia alla guerra dei droni degli Stati Uniti post-11 settembre, con il concetto di Signature Strike. Un signature strike usa la logica del targeting pubblicitario, determinando i bersagli da uccidere non in base alla conoscenza del bersaglio o alla certezza della sua colpevolezza, ma in base a modelli di dati e sorveglianza del comportamento che gli Stati Uniti, in questo caso, presumono essere associato ad attività terroristiche. Gli signature strike uccidono le persone in base ai loro profili di dati. E l’intelligenza artificiale e le piattaforme di sorveglianza su larga scala che alimentano i sistemi di intelligenza artificiale stanno potenziando questa capacità in modi incredibilmente pericolosi.
Conosciamo un esempio scioccante grazie al lavoro investigativo della pubblicazione israeliana 972, che ha riferito che l’esercito israeliano, dopo gli attacchi del 7 ottobre, sta attualmente utilizzando un sistema di intelligenza artificiale chiamato Lavender a Gaza, insieme a molti altri. Lavender applica la logica degli attacchi basati sul riconoscimento di pattern, resi popolari dagli Stati Uniti, combinati con le infrastrutture di sorveglianza di massa e le tecniche di targeting dell’intelligenza artificiale. Invece di servire annunci pubblicitari, Lavender inserisce automaticamente le persone in una lista di uccisioni in base alla somiglianza dei loro pattern di dati di sorveglianza con i pattern di dati di presunti militanti, un processo che sappiamo, come esperti, essere estremamente impreciso. Qui abbiamo la logica basata sull’intelligenza artificiale del targeting pubblicitario, ma per uccidere. Secondo il reportage di 972, una volta che una persona è nella lista di uccisioni di Lavender, non è solo lei a essere presa di mira, ma l’edificio in cui vive (e la sua famiglia, i vicini, gli animali domestici, chiunque altro) viene successivamente contrassegnato per il bombardamento, generalmente di notte, quando loro (e coloro che vivono lì) sono sicuramente a casa. Questo è qualcosa che dovrebbe allarmarci tutti.
Mentre un sistema come Lavender potrebbe essere implementato in altri luoghi, da altri eserciti, ci sono condizioni che limitano il numero di altri che potrebbero praticamente seguire l’esempio. Per implementare un sistema del genere, hai prima bisogno di dati di sorveglianza a livello di popolazione a grana fine, del tipo che il governo israeliano raccoglie e crea sui palestinesi. Questa sorveglianza di massa è una precondizione per creare “profili di dati” e confrontare milioni di modelli di dati di individui con tali profili al fine di determinare automaticamente se queste persone vengono aggiunte o meno a una lista di uccisioni. L’implementazione di un sistema del genere richiede in ultima analisi infrastrutture potenti e abilità tecniche, del tipo a cui hanno accesso governi tecnicamente capaci come gli Stati Uniti e Israele, così come le grandi aziende di sorveglianza. Pochi altri hanno tale accesso. Ecco perché, in base a ciò che sappiamo sull’ambito e l’applicazione del sistema AI Lavender, possiamo concludere che è quasi certamente dipendente dall’infrastruttura fornita da grandi aziende cloud statunitensi per la sorveglianza, l’elaborazione dei dati e, possibilmente, la messa a punto e la creazione di modelli AI. Perché raccogliere, creare, archiviare ed elaborare questo tipo e quantità di dati richiede praticamente infrastrutture cloud Big Tech, ovvero “come si fa” al giorno d’oggi. Questo dettaglio sottile ma importante indica anche una dinamica in cui i capricci delle aziende Big Tech, insieme a quelli di un dato regime statunitense, determinano chi può e chi non può accedere a tali armi.
Questo è anche il motivo per cui è fondamentale riconoscere la sorveglianza di massa (e in ultima analisi il modello di business della sorveglianza) come la radice della tecnologia su larga scala che attualmente chiamiamo “IA”.
Il che ci porta all’economia politica, ovviamente. Perché questa svolta verso gli appalti per la difesa che le grandi aziende tecnologiche hanno intrapreso è una parte fondamentale del loro modello di fatturato. Un lavoro di Tech Inquiry ha recentemente rivelato che i cinque maggiori contratti militari statunitensi con le principali aziende tecnologiche tra il 2019 e il 2022 hanno massimali contrattuali di 53 miliardi di dollari. E sono quelli che conosciamo. A causa della combinazione di classificazione militare e segretezza aziendale, la trasparenza, per non parlare della responsabilità, è molto difficile da ottenere.
L’uso di tecniche probabilistiche per determinare chi è degno di morte, ovunque vengano utilizzate, è, per me, l’esempio più agghiacciante dei gravi pericoli dell’attuale ecosistema centralizzato dell’industria dell’intelligenza artificiale e dei rischi materiali di credere alle roboanti affermazioni di intelligenza e accuratezza che vengono utilizzate per commercializzare questi sistemi imprecisi. E per giustificare la carneficina sotto la bandiera della sofisticatezza computazionale. Come ha affermato il Segretario generale delle Nazioni Unite Antonio Gutiérrez, “le macchine che hanno il potere e la discrezione di togliere vite umane sono politicamente inaccettabili, sono moralmente ripugnanti e dovrebbero essere vietate dal diritto internazionale”.
Per questo motivo mi unisco al Forum tedesco degli informatici per la pace e la responsabilità sociale nel chiedere che “le pratiche di uccisioni mirate con sistemi di supporto vengano messe al bando come crimini di guerra”.
In particolare data la possibilità molto concreta di un governo più autoritario negli Stati Uniti, dove hanno sede queste aziende. Un luogo in cui la destra del paese ha già diffuso piani per portare i due principali regolatori tecnologici degli Stati Uniti, la Federal Trade Commission e la Federal Communications Commission, sotto il diretto controllo presidenziale in futuro. Dove hanno sede quattro delle prime cinque piattaforme di social media, insieme ai giganti del cloud che attualmente controllano il 70% del mercato cloud globale. E dove un divieto federale di aborto è all’ordine del giorno della destra, accompagnato da campagne in corso di messa al bando dei libri e censura delle risorse e dell’espressione LGBTQ che stanno già plasmando la legislazione a livello statale.
Ma! Niente di tutto questo è una ragione per perdere la speranza! Lavoro ogni giorno, tengo discorsi come questo al posto di ringraziamenti e lodi soft-focus, perché ho speranza. Ho speranza, ma mi rifiuto di piantare la mia speranza nel terreno superficiale dell’illusione e del falso conforto.
C’è ancora tempo per creare un futuro bello e vivibile. Per mettere in discussione queste narrazioni e il controllo che danno a questi attori monopolistici. Possiamo smantellare questo modello di business di sorveglianza tossico e i derivati dell’IA che vengono spinti nel sistema nervoso delle nostre vite e istituzioni. C’è tempo, ad esempio, per verificare e comprendere le dipendenze dell’UE dai giganti dell’IA di sorveglianza degli Stati Uniti e per forgiare una strada migliore da seguire.
Perché una fine è l’inizio di un’altra cosa. E riconoscere che qualcosa non funziona, che si tratti di una relazione, di un lavoro o di un intero paradigma tecnologico, è il punto in cui un nuovo mondo può iniziare a nascere. Con il velo squarciato e la retorica benevola delle grandi aziende tecnologiche rivelatasi più marketing che realtà, possiamo iniziare seriamente a rivedere e ricostruire il nostro futuro tecnologico.
Non deve essere per forza così! La tecnologia computazionale è fantastica, può essere meravigliosa e può assumere molte, molte, molte forme.
Non dobbiamo competere con i giganti alle loro condizioni: perché lasciare che siano loro a stabilire le condizioni per cominciare? Possiamo creare le nostre condizioni! Da infrastrutture supportate socialmente che generano più applicazioni e piattaforme di comunicazione gestite localmente, a una ridefinizione, o rivendicazione, del concetto di IA, lontano dall’approccio più grande è meglio, dipendente dalla sorveglianza, verso modelli più piccoli costruiti con dati creati intenzionalmente che servono reali esigenze sociali. Per infrastrutture di base aperte, responsabili e condivise che, invece di essere abbandonate ed estratte, sono supportate e nutrite.
Qui, Signal funge da modello. E sono così onorato e orgoglioso di poter dedicare il mio tempo e la mia energia a nutrire e prendermi cura di Signal. L’app di messaggistica veramente privata più utilizzata al mondo e l’unica azienda tecnologica cool ❤
Signal è un potente esempio che dimostra che la tecnologia può essere fatta diversamente. L’enorme successo di Signal dimostra che la tecnologia che dà priorità alla privacy, rifiuta il modello di business dell’intelligenza artificiale di sorveglianza ed è responsabile nei confronti delle persone che la usano non solo è possibile, ma può prosperare e prosperare come organizzazione non-profit, supportata dalle persone che vi fanno affidamento, non dai dollari pubblicitari e dai contratti militari.
Quindi, come ho detto, sono ottimista. Il mio ottimismo mi spinge. E sono particolarmente ispirato dai giovani qui oggi, e da quelli con cui ho parlato questo pomeriggio, la cui energia e visione forniscono la leadership di cui abbiamo bisogno per sederci e affrontare le sfide serie che ci troviamo ad affrontare, mentre allo stesso tempo (ri)costruiamo e reinventiamo la tecnologia che riflette il mondo che vogliamo, non il mondo in cui i monopoli della pubblicità sulla sorveglianza ci dicono che siamo bloccati.
Grazie! Cari amici, membri del pubblico, personale del locale e tutte le persone della mia vita senza la cui saggezza e il cui supporto non sarei qui oggi, grazie di cuore. È un profondo onore ricevere l’Helmut Schmidt Future Prize 2024 e sono molto grato alla giuria per questo riconoscimento e a te, Francesca, per le tue osservazioni incredibilmente umilianti nel tuo discorso elogiativo. Sono un grande ammiratore del tuo lavoro, quindi questo è ancora più speciale per me.
Accetto questo premio in un momento storico difficile. Stiamo osservando i baluardi dell’ordine globale basato sulle regole gemere, oscillare e cedere mentre aumentano le pressioni illiberali. Ed è con questo in mente che vi chiedo perdono mentre procedo a fare un appello urgente in un contesto generalmente riservato a riconoscimenti, ringraziamenti e visioni ottimistiche.
Non fraintendetemi: sono ottimista, ma il mio ottimismo è un invito all’analisi e all’azione, non un lasciapassare per l’autocompiacimento.
Con questo in mente, voglio iniziare con alcune definizioni per assicurarmi che stiamo tutti leggendo lo stesso spartito. Perché molto spesso, in questo discorso basato sull’hype, non lo siamo. E troppo raramente dedichiamo tempo alle domande fondamentali, le cui risposte, vedremo, cambiano radicalmente la nostra prospettiva. Domande come: cos’è l’IA? Da dove viene? E perché è ovunque, garantendo promesse di onniscienza, coscienza automatizzata e ciò che può essere descritto solo come magia?
Bene, prima di tutto rispondi: AI è un termine di marketing, non un termine tecnico dell’arte. Il termine “intelligenza artificiale” è stato coniato nel 1956 dallo scienziato cognitivo e informatico John McCarthy, circa un decennio dopo la creazione delle prime architetture di rete proto-neurali. Nelle interviste successive McCarthy è molto chiaro sul motivo per cui ha inventato il termine. Innanzitutto, non voleva includere il matematico e filosofo Norbert Wiener in un workshop che stava ospitando quell’estate. Vedete, Wiener aveva già coniato il termine “cibernetica”, sotto la cui egida era allora organizzato il campo. McCarthy voleva creare il suo campo, non contribuire a quello di Norbert, che è il modo in cui si diventa il “padre” invece che un discepolo devoto. Questa è una dinamica familiare per coloro che hanno familiarità con la politica accademica “nome e rivendicazione”. In secondo luogo, McCarthy voleva i fondi delle sovvenzioni. E pensava che l’espressione “intelligenza artificiale” fosse abbastanza accattivante da attrarre tali finanziamenti dal governo degli Stati Uniti, che all’epoca stava investendo ingenti risorse nella ricerca tecnica al servizio del predominio della guerra fredda del dopoguerra.
Ora, nel corso di oltre 70 anni di storia del termine, “intelligenza artificiale” è stata applicata a una vasta ed eterogenea gamma di tecnologie che hanno poca somiglianza tra loro. Oggi, e in tutto il tempo, connota più aspirazione e marketing che un approccio tecnico coerente. E il suo utilizzo è entrato e uscito di moda, nel tempo con le prerogative di finanziamento e il ciclo di clamore-delusione.
Allora perché l’intelligenza artificiale è ovunque oggi? O perché è emersa nell’ultimo decennio come la grande novità?
La risposta a questa domanda è affrontare il tossico modello di business della sorveglianza e i grandi monopoli tecnologici che hanno costruito i loro imperi su questo modello.
Le radici di questo modello di business possono essere fatte risalire agli anni ’90, come dimostra il lavoro dello studioso Matthew Crain. In un impeto di entusiasmo per commercializzare il calcolo in rete, l’amministrazione Clinton ha stabilito le regole del gioco per l’internet orientata al profitto nel 1996. Così facendo, ha commesso due peccati originali, peccati per i quali stiamo ancora pagando oggi.
In primo luogo, nonostante fossero stati avvertiti dai sostenitori e dalle agenzie all’interno del loro stesso governo circa le preoccupazioni sulla privacy e sulle libertà civili che la dilagante raccolta di dati su reti non sicure avrebbe prodotto, non hanno posto NESSUNA restrizione alla sorveglianza commerciale. Nessuna. Le aziende private sono state liberate per raccogliere e creare quante più informazioni intime su di noi e sulle nostre vite desiderassero, molto più di quanto fosse consentito ai governi. (I governi, ovviamente, hanno trovato il modo di accedere a questa miniera d’oro della sorveglianza aziendale, come hanno rivelato i documenti di Snowden.) E negli Stati Uniti, nel 2024 non abbiamo ancora una legge federale sulla privacy. In secondo luogo, hanno esplicitamente approvato la pubblicità come modello di business dell’Internet commerciale, soddisfacendo i desideri degli inserzionisti che già dominavano i media cartacei e televisivi.
Questa combinazione era, ed è, veleno. Perché, ovviamente, l’imperativo della pubblicità è “conosci il tuo cliente”, al servizio dell’identificazione delle persone più propense a essere convinte ad acquistare o fare le cose che vuoi che facciano. E per conoscere il tuo cliente devi raccogliere dati su di lui. Ciò ha incentivato la sorveglianza di massa, che ora alimenta governi e industria privata ben oltre la pubblicità, con una crittografia avanzata che funge da uno dei nostri pochi controlli significativi su questa dinamica.
Su questa base tossica, nel corso degli anni 2000, le piattaforme Big Tech si sono affermate attraverso la ricerca, i social media, i marketplace, gli scambi di annunci e molto altro. Hanno investito in ricerca e sviluppo per consentire una raccolta e un’elaborazione dei dati più rapide e più grandi e per costruire e massimizzare infrastrutture e tecniche computazionali che potessero facilitare tale raccolta e “uso” dei dati. Le economie di scala, gli effetti di rete e le dinamiche auto-rafforzanti delle infrastrutture di comunicazione hanno consentito alle aziende che hanno iniziato questo modello tossico di stabilire un predominio monopolistico. Ciò è stato aiutato dall’uso del soft power, degli accordi commerciali e del predominio imperiale da parte del governo degli Stati Uniti per garantire che l’UE e altre giurisdizioni adottassero il paradigma statunitense.
Questa storia aiuta a spiegare perché la maggior parte delle grandi aziende tecnologiche del mondo ha sede negli Stati Uniti, mentre il resto emerge dalla Cina. Gli Stati Uniti hanno avuto un vantaggio, tramite infrastrutture militari e politiche e investimenti neoliberisti, mentre la Cina ha costruito un mercato autonomo, in grado di supportare le proprie piattaforme con le proprie norme per i contenuti che hanno ulteriormente limitato la concorrenza esterna. Il che significa anche che la storia dell’UE che “soffoca l’innovazione tramite regolamentazione” è sia sbagliata, sia sospettosamente egoistica quando proviene dalla bocca dei giganti della tecnologia e dei loro hype men.
Qui potresti fermarti, riflettere e chiedere… ma cosa c’entra questa sordida storia con l’IA? Beh, c’entra tutto con l’IA.
Nel 2012, proprio mentre le piattaforme di sorveglianza stavano consolidando il loro predominio, i ricercatori hanno pubblicato un articolo molto importante sulla classificazione delle immagini AI, che ha dato il via all’attuale corsa all’oro dell’AI. L’articolo ha dimostrato che una combinazione di computer potenti e grandi quantità di dati potrebbe migliorare significativamente le prestazioni delle tecniche AI, tecniche che a loro volta sono state create alla fine degli anni ’80. In altre parole, ciò che era nuovo nel 2012 non erano gli approcci all’AI, i metodi e le procedure. Ciò che ha “cambiato tutto” nell’ultimo decennio sono state le sbalorditive risorse computazionali e di dati recentemente disponibili e quindi nuovamente in grado di animare i vecchi approcci.
In altre parole, l’attuale mania dell’intelligenza artificiale è il risultato di questo modello di business di sorveglianza tossica. Non è dovuto a nuovi approcci scientifici che, come la stampa, hanno cambiato radicalmente un paradigma. E mentre nuovi framework e architetture sono emersi nel decennio intermedio, questo paradigma è ancora valido: sono i dati e il calcolo a determinare chi “vince” e chi perde.
Ciò che oggi chiamiamo IA è nato da questo modello tossico e deve essere inteso principalmente come un modo per commercializzare i derivati della sorveglianza di massa e della piattaforma concentrata e del potere computazionale. Attualmente, ci sono solo una manciata di aziende, con sede negli Stati Uniti e in Cina, che hanno le risorse per creare e distribuire l’IA su larga scala dall’inizio alla fine. Questi sono i monopoli del cloud e delle piattaforme, quelli che si sono affermati presto sulle spalle del modello di business della sorveglianza. Tutti gli altri stanno concedendo in licenza l’infrastruttura, lottando per i dati e lottando per trovare un mercato adatto senza enormi infrastrutture cloud attraverso cui l’IA può essere concessa in licenza ai clienti o enormi piattaforme in cui l’IA può essere integrata come una funzionalità o un servizio che tocca miliardi di persone.
Ecco perché persino le “startup” di intelligenza artificiale di maggior successo, Open AI, Mistral, Inflection, finiscono per trasformarsi in cirripedi sullo scafo della nave Big Tech, la nave Microsoft, nel loro caso. Ecco perché Anthropic deve essere inteso come una specie di sussidiaria di Google e Amazon.
Oltre alle attuali tecnologie che vengono chiamate “AI”, dobbiamo anche guardare alla narrazione dell’AI stessa. La storia che anima il marketing e l’hype odierno: come viene utilizzato questo termine di marketing? Brandendo racconti quasi religiosi su computer coscienti, intelligenza artificiale generale, piccoli elfi che stanno nelle nostre tasche e, come servi, soddisfano ogni nostro desiderio, le grandi aziende hanno spianato la strada a un dominio senza precedenti.
Descrivendo i loro prodotti e servizi come l’apice del “progresso umano” e del “progresso scientifico”, queste aziende e i loro sostenitori stanno estendendo la loro portata e il loro controllo in quasi tutti i settori della vita, in quasi ogni regione della terra. Fornendo l’infrastruttura per governi, aziende, media e militari. Stanno vendendo i derivati del modello di business della sorveglianza tossica come il prodotto dell’innovazione scientifica.
E stanno lavorando per convincerci che i sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati sono strumenti oggettivi, intelligenti e sofisticati, capaci di quasi ogni funzione immaginabile. Di sicuro più capaci di noi, semplici mortali. E quindi dovremmo farci da parte e affidare a loro i nostri affari.
Ciò è incredibilmente pericoloso. La ricerca metastatica di crescita e fatturato senza fine guidata dal capitalismo azionario che alla fine spinge queste enormi corporazioni spesso diverge dal percorso verso un futuro vivibile.
Ci sono molti esempi che illustrano quanto sia pericoloso affidare le nostre infrastrutture principali e le decisioni di governance sensibili a questi pochi attori centralizzati. Studiosi come Abeba Birhane, Seda Gürses, Alex Hannah, Khadijah Abdurahman, Jathan Sadowski, Dan McQuillian, Amba Kak e Sarah Myers West, tra molti altri, hanno spiegato tali esempi in modo approfondito e con attenzione.
Qui, mi fermerò a riflettere su una tendenza particolarmente angosciante, che a mio avviso espone la tendenza più pericolosa di tutte. Queste enormi aziende di sorveglianza AI si stanno muovendo per diventare appaltatori della difesa, fornendo armi e infrastrutture di sorveglianza a militari e governi che scelgono di armare e con cui cooperano.
Siamo tutti abituati a vedere annunci nei nostri feed per pantaloni da yoga (anche se non fai yoga) o uno scooter (anche se ne hai appena comprato uno), o qualsiasi altra cosa. Li vediamo perché la società di sorveglianza che gestisce il mercato pubblicitario o la piattaforma social ha stabilito che si presume che queste siano cose che “persone come noi” vogliono o da cui sono attratte, in base a un modello di comportamento costruito utilizzando dati di sorveglianza. Dal momento che altre persone con modelli di dati simili ai tuoi hanno acquistato uno scooter, la logica è che probabilmente ne comprerai uno (o almeno cliccherai su un annuncio per uno). E quindi ti viene mostrato un annuncio. Sappiamo quanto sia impreciso e stravagante questo tipo di targeting. E quando si tratta di un annuncio, non è una crisi quando è mal indirizzato.
Ma quando la situazione è più seria, la storia è diversa.
Possiamo far risalire questa storia alla guerra dei droni degli Stati Uniti post-11 settembre, con il concetto di Signature Strike. Un signature strike usa la logica del targeting pubblicitario, determinando i bersagli da uccidere non in base alla conoscenza del bersaglio o alla certezza della sua colpevolezza, ma in base a modelli di dati e sorveglianza del comportamento che gli Stati Uniti, in questo caso, presumono essere associato ad attività terroristiche. Gli signature strike uccidono le persone in base ai loro profili di dati. E l’intelligenza artificiale e le piattaforme di sorveglianza su larga scala che alimentano i sistemi di intelligenza artificiale stanno potenziando questa capacità in modi incredibilmente pericolosi.
Conosciamo un esempio scioccante grazie al lavoro investigativo della pubblicazione israeliana 972, che ha riferito che l’esercito israeliano, dopo gli attacchi del 7 ottobre, sta attualmente utilizzando un sistema di intelligenza artificiale chiamato Lavender a Gaza, insieme a molti altri. Lavender applica la logica degli attacchi basati sul riconoscimento di pattern, resi popolari dagli Stati Uniti, combinati con le infrastrutture di sorveglianza di massa e le tecniche di targeting dell’intelligenza artificiale. Invece di servire annunci pubblicitari, Lavender inserisce automaticamente le persone in una lista di uccisioni in base alla somiglianza dei loro pattern di dati di sorveglianza con i pattern di dati di presunti militanti, un processo che sappiamo, come esperti, essere estremamente impreciso. Qui abbiamo la logica basata sull’intelligenza artificiale del targeting pubblicitario, ma per uccidere. Secondo il reportage di 972, una volta che una persona è nella lista di uccisioni di Lavender, non è solo lei a essere presa di mira, ma l’edificio in cui vive (e la sua famiglia, i vicini, gli animali domestici, chiunque altro) viene successivamente contrassegnato per il bombardamento, generalmente di notte, quando loro (e coloro che vivono lì) sono sicuramente a casa. Questo è qualcosa che dovrebbe allarmarci tutti.
Mentre un sistema come Lavender potrebbe essere implementato in altri luoghi, da altri eserciti, ci sono condizioni che limitano il numero di altri che potrebbero praticamente seguire l’esempio. Per implementare un sistema del genere, hai prima bisogno di dati di sorveglianza a livello di popolazione a grana fine, del tipo che il governo israeliano raccoglie e crea sui palestinesi. Questa sorveglianza di massa è una precondizione per creare “profili di dati” e confrontare milioni di modelli di dati di individui con tali profili al fine di determinare automaticamente se queste persone vengono aggiunte o meno a una lista di uccisioni. L’implementazione di un sistema del genere richiede in ultima analisi infrastrutture potenti e abilità tecniche, del tipo a cui hanno accesso governi tecnicamente capaci come gli Stati Uniti e Israele, così come le grandi aziende di sorveglianza. Pochi altri hanno tale accesso. Ecco perché, in base a ciò che sappiamo sull’ambito e l’applicazione del sistema AI Lavender, possiamo concludere che è quasi certamente dipendente dall’infrastruttura fornita da grandi aziende cloud statunitensi per la sorveglianza, l’elaborazione dei dati e, possibilmente, la messa a punto e la creazione di modelli AI. Perché raccogliere, creare, archiviare ed elaborare questo tipo e quantità di dati richiede praticamente infrastrutture cloud Big Tech, ovvero “come si fa” al giorno d’oggi. Questo dettaglio sottile ma importante indica anche una dinamica in cui i capricci delle aziende Big Tech, insieme a quelli di un dato regime statunitense, determinano chi può e chi non può accedere a tali armi.
Questo è anche il motivo per cui è fondamentale riconoscere la sorveglianza di massa (e in ultima analisi il modello di business della sorveglianza) come la radice della tecnologia su larga scala che attualmente chiamiamo “IA”.
Il che ci porta all’economia politica, ovviamente. Perché questa svolta verso gli appalti per la difesa che le grandi aziende tecnologiche hanno intrapreso è una parte fondamentale del loro modello di fatturato. Un lavoro di Tech Inquiry ha recentemente rivelato che i cinque maggiori contratti militari statunitensi con le principali aziende tecnologiche tra il 2019 e il 2022 hanno massimali contrattuali di 53 miliardi di dollari. E sono quelli che conosciamo. A causa della combinazione di classificazione militare e segretezza aziendale, la trasparenza, per non parlare della responsabilità, è molto difficile da ottenere.
L’uso di tecniche probabilistiche per determinare chi è degno di morte, ovunque vengano utilizzate, è, per me, l’esempio più agghiacciante dei gravi pericoli dell’attuale ecosistema centralizzato dell’industria dell’intelligenza artificiale e dei rischi materiali di credere alle roboanti affermazioni di intelligenza e accuratezza che vengono utilizzate per commercializzare questi sistemi imprecisi. E per giustificare la carneficina sotto la bandiera della sofisticatezza computazionale. Come ha affermato il Segretario generale delle Nazioni Unite Antonio Gutiérrez, “le macchine che hanno il potere e la discrezione di togliere vite umane sono politicamente inaccettabili, sono moralmente ripugnanti e dovrebbero essere vietate dal diritto internazionale”.
Per questo motivo mi unisco al Forum tedesco degli informatici per la pace e la responsabilità sociale nel chiedere che “le pratiche di uccisioni mirate con sistemi di supporto vengano messe al bando come crimini di guerra”.
In particolare data la possibilità molto concreta di un governo più autoritario negli Stati Uniti, dove hanno sede queste aziende. Un luogo in cui la destra del paese ha già diffuso piani per portare i due principali regolatori tecnologici degli Stati Uniti, la Federal Trade Commission e la Federal Communications Commission, sotto il diretto controllo presidenziale in futuro. Dove hanno sede quattro delle prime cinque piattaforme di social media, insieme ai giganti del cloud che attualmente controllano il 70% del mercato cloud globale. E dove un divieto federale di aborto è all’ordine del giorno della destra, accompagnato da campagne in corso di messa al bando dei libri e censura delle risorse e dell’espressione LGBTQ che stanno già plasmando la legislazione a livello statale.
Ma! Niente di tutto questo è una ragione per perdere la speranza! Lavoro ogni giorno, tengo discorsi come questo al posto di ringraziamenti e lodi soft-focus, perché ho speranza. Ho speranza, ma mi rifiuto di piantare la mia speranza nel terreno superficiale dell’illusione e del falso conforto.
C’è ancora tempo per creare un futuro bello e vivibile. Per mettere in discussione queste narrazioni e il controllo che danno a questi attori monopolistici. Possiamo smantellare questo modello di business di sorveglianza tossico e i derivati dell’IA che vengono spinti nel sistema nervoso delle nostre vite e istituzioni. C’è tempo, ad esempio, per verificare e comprendere le dipendenze dell’UE dai giganti dell’IA di sorveglianza degli Stati Uniti e per forgiare una strada migliore da seguire.
Perché una fine è l’inizio di un’altra cosa. E riconoscere che qualcosa non funziona, che si tratti di una relazione, di un lavoro o di un intero paradigma tecnologico, è il punto in cui un nuovo mondo può iniziare a nascere. Con il velo squarciato e la retorica benevola delle grandi aziende tecnologiche rivelatasi più marketing che realtà, possiamo iniziare seriamente a rivedere e ricostruire il nostro futuro tecnologico.
Non deve essere per forza così! La tecnologia computazionale è fantastica, può essere meravigliosa e può assumere molte, molte, molte forme.
Non dobbiamo competere con i giganti alle loro condizioni: perché lasciare che siano loro a stabilire le condizioni per cominciare? Possiamo creare le nostre condizioni! Da infrastrutture supportate socialmente che generano più applicazioni e piattaforme di comunicazione gestite localmente, a una ridefinizione, o rivendicazione, del concetto di IA, lontano dall’approccio più grande è meglio, dipendente dalla sorveglianza, verso modelli più piccoli costruiti con dati creati intenzionalmente che servono reali esigenze sociali. Per infrastrutture di base aperte, responsabili e condivise che, invece di essere abbandonate ed estratte, sono supportate e nutrite.
Qui, Signal funge da modello. E sono così onorato e orgoglioso di poter dedicare il mio tempo e la mia energia a nutrire e prendermi cura di Signal. L’app di messaggistica veramente privata più utilizzata al mondo e l’unica azienda tecnologica cool ❤
Signal è un potente esempio che dimostra che la tecnologia può essere fatta diversamente. L’enorme successo di Signal dimostra che la tecnologia che dà priorità alla privacy, rifiuta il modello di business dell’intelligenza artificiale di sorveglianza ed è responsabile nei confronti delle persone che la usano non solo è possibile, ma può prosperare e prosperare come organizzazione non-profit, supportata dalle persone che vi fanno affidamento, non dai dollari pubblicitari e dai contratti militari.
Quindi, come ho detto, sono ottimista. Il mio ottimismo mi spinge. E sono particolarmente ispirato dai giovani qui oggi, e da quelli con cui ho parlato questo pomeriggio, la cui energia e visione forniscono la leadership di cui abbiamo bisogno per sederci e affrontare le sfide serie che ci troviamo ad affrontare, mentre allo stesso tempo (ri)costruiamo e reinventiamo la tecnologia che riflette il mondo che vogliamo, non il mondo in cui i monopoli della pubblicità sulla sorveglianza ci dicono che siamo bloccati.
Grazie! Cari amici, membri del pubblico, personale del locale e tutte le persone della mia vita senza la cui saggezza e il cui supporto non sarei qui oggi, grazie di cuore. È un profondo onore ricevere l’Helmut Schmidt Future Prize 2024 e sono molto grato alla giuria per questo riconoscimento e a te, Francesca, per le tue osservazioni incredibilmente umilianti nel tuo discorso elogiativo. Sono un grande ammiratore del tuo lavoro, quindi questo è ancora più speciale per me.
Accetto questo premio in un momento storico difficile. Stiamo osservando i baluardi dell’ordine globale basato sulle regole gemere, oscillare e cedere mentre aumentano le pressioni illiberali. Ed è con questo in mente che vi chiedo perdono mentre procedo a fare un appello urgente in un contesto generalmente riservato a riconoscimenti, ringraziamenti e visioni ottimistiche.
Non fraintendetemi: sono ottimista, ma il mio ottimismo è un invito all’analisi e all’azione, non un lasciapassare per l’autocompiacimento.
Con questo in mente, voglio iniziare con alcune definizioni per assicurarmi che stiamo tutti leggendo lo stesso spartito. Perché molto spesso, in questo discorso basato sull’hype, non lo siamo. E troppo raramente dedichiamo tempo alle domande fondamentali, le cui risposte, vedremo, cambiano radicalmente la nostra prospettiva. Domande come: cos’è l’IA? Da dove viene? E perché è ovunque, garantendo promesse di onniscienza, coscienza automatizzata e ciò che può essere descritto solo come magia?
Bene, prima di tutto rispondi: AI è un termine di marketing, non un termine tecnico dell’arte. Il termine “intelligenza artificiale” è stato coniato nel 1956 dallo scienziato cognitivo e informatico John McCarthy, circa un decennio dopo la creazione delle prime architetture di rete proto-neurali. Nelle interviste successive McCarthy è molto chiaro sul motivo per cui ha inventato il termine. Innanzitutto, non voleva includere il matematico e filosofo Norbert Wiener in un workshop che stava ospitando quell’estate. Vedete, Wiener aveva già coniato il termine “cibernetica”, sotto la cui egida era allora organizzato il campo. McCarthy voleva creare il suo campo, non contribuire a quello di Norbert, che è il modo in cui si diventa il “padre” invece che un discepolo devoto. Questa è una dinamica familiare per coloro che hanno familiarità con la politica accademica “nome e rivendicazione”. In secondo luogo, McCarthy voleva i fondi delle sovvenzioni. E pensava che l’espressione “intelligenza artificiale” fosse abbastanza accattivante da attrarre tali finanziamenti dal governo degli Stati Uniti, che all’epoca stava investendo ingenti risorse nella ricerca tecnica al servizio del predominio della guerra fredda del dopoguerra.
Ora, nel corso di oltre 70 anni di storia del termine, “intelligenza artificiale” è stata applicata a una vasta ed eterogenea gamma di tecnologie che hanno poca somiglianza tra loro. Oggi, e in tutto il tempo, connota più aspirazione e marketing che un approccio tecnico coerente. E il suo utilizzo è entrato e uscito di moda, nel tempo con le prerogative di finanziamento e il ciclo di clamore-delusione.
Allora perché l’intelligenza artificiale è ovunque oggi? O perché è emersa nell’ultimo decennio come la grande novità?
La risposta a questa domanda è affrontare il tossico modello di business della sorveglianza e i grandi monopoli tecnologici che hanno costruito i loro imperi su questo modello.
Le radici di questo modello di business possono essere fatte risalire agli anni ’90, come dimostra il lavoro dello studioso Matthew Crain. In un impeto di entusiasmo per commercializzare il calcolo in rete, l’amministrazione Clinton ha stabilito le regole del gioco per l’internet orientata al profitto nel 1996. Così facendo, ha commesso due peccati originali, peccati per i quali stiamo ancora pagando oggi.
In primo luogo, nonostante fossero stati avvertiti dai sostenitori e dalle agenzie all’interno del loro stesso governo circa le preoccupazioni sulla privacy e sulle libertà civili che la dilagante raccolta di dati su reti non sicure avrebbe prodotto, non hanno posto NESSUNA restrizione alla sorveglianza commerciale. Nessuna. Le aziende private sono state liberate per raccogliere e creare quante più informazioni intime su di noi e sulle nostre vite desiderassero, molto più di quanto fosse consentito ai governi. (I governi, ovviamente, hanno trovato il modo di accedere a questa miniera d’oro della sorveglianza aziendale, come hanno rivelato i documenti di Snowden.) E negli Stati Uniti, nel 2024 non abbiamo ancora una legge federale sulla privacy. In secondo luogo, hanno esplicitamente approvato la pubblicità come modello di business dell’Internet commerciale, soddisfacendo i desideri degli inserzionisti che già dominavano i media cartacei e televisivi.
Questa combinazione era, ed è, veleno. Perché, ovviamente, l’imperativo della pubblicità è “conosci il tuo cliente”, al servizio dell’identificazione delle persone più propense a essere convinte ad acquistare o fare le cose che vuoi che facciano. E per conoscere il tuo cliente devi raccogliere dati su di lui. Ciò ha incentivato la sorveglianza di massa, che ora alimenta governi e industria privata ben oltre la pubblicità, con una crittografia avanzata che funge da uno dei nostri pochi controlli significativi su questa dinamica.
Su questa base tossica, nel corso degli anni 2000, le piattaforme Big Tech si sono affermate attraverso la ricerca, i social media, i marketplace, gli scambi di annunci e molto altro. Hanno investito in ricerca e sviluppo per consentire una raccolta e un’elaborazione dei dati più rapide e più grandi e per costruire e massimizzare infrastrutture e tecniche computazionali che potessero facilitare tale raccolta e “uso” dei dati. Le economie di scala, gli effetti di rete e le dinamiche auto-rafforzanti delle infrastrutture di comunicazione hanno consentito alle aziende che hanno iniziato questo modello tossico di stabilire un predominio monopolistico. Ciò è stato aiutato dall’uso del soft power, degli accordi commerciali e del predominio imperiale da parte del governo degli Stati Uniti per garantire che l’UE e altre giurisdizioni adottassero il paradigma statunitense.
Questa storia aiuta a spiegare perché la maggior parte delle grandi aziende tecnologiche del mondo ha sede negli Stati Uniti, mentre il resto emerge dalla Cina. Gli Stati Uniti hanno avuto un vantaggio, tramite infrastrutture militari e politiche e investimenti neoliberisti, mentre la Cina ha costruito un mercato autonomo, in grado di supportare le proprie piattaforme con le proprie norme per i contenuti che hanno ulteriormente limitato la concorrenza esterna. Il che significa anche che la storia dell’UE che “soffoca l’innovazione tramite regolamentazione” è sia sbagliata, sia sospettosamente egoistica quando proviene dalla bocca dei giganti della tecnologia e dei loro hype men.
Qui potresti fermarti, riflettere e chiedere… ma cosa c’entra questa sordida storia con l’IA? Beh, c’entra tutto con l’IA.
Nel 2012, proprio mentre le piattaforme di sorveglianza stavano consolidando il loro predominio, i ricercatori hanno pubblicato un articolo molto importante sulla classificazione delle immagini AI, che ha dato il via all’attuale corsa all’oro dell’AI. L’articolo ha dimostrato che una combinazione di computer potenti e grandi quantità di dati potrebbe migliorare significativamente le prestazioni delle tecniche AI, tecniche che a loro volta sono state create alla fine degli anni ’80. In altre parole, ciò che era nuovo nel 2012 non erano gli approcci all’AI, i metodi e le procedure. Ciò che ha “cambiato tutto” nell’ultimo decennio sono state le sbalorditive risorse computazionali e di dati recentemente disponibili e quindi nuovamente in grado di animare i vecchi approcci.
In altre parole, l’attuale mania dell’intelligenza artificiale è il risultato di questo modello di business di sorveglianza tossica. Non è dovuto a nuovi approcci scientifici che, come la stampa, hanno cambiato radicalmente un paradigma. E mentre nuovi framework e architetture sono emersi nel decennio intermedio, questo paradigma è ancora valido: sono i dati e il calcolo a determinare chi “vince” e chi perde.
Ciò che oggi chiamiamo IA è nato da questo modello tossico e deve essere inteso principalmente come un modo per commercializzare i derivati della sorveglianza di massa e della piattaforma concentrata e del potere computazionale. Attualmente, ci sono solo una manciata di aziende, con sede negli Stati Uniti e in Cina, che hanno le risorse per creare e distribuire l’IA su larga scala dall’inizio alla fine. Questi sono i monopoli del cloud e delle piattaforme, quelli che si sono affermati presto sulle spalle del modello di business della sorveglianza. Tutti gli altri stanno concedendo in licenza l’infrastruttura, lottando per i dati e lottando per trovare un mercato adatto senza enormi infrastrutture cloud attraverso cui l’IA può essere concessa in licenza ai clienti o enormi piattaforme in cui l’IA può essere integrata come una funzionalità o un servizio che tocca miliardi di persone.
Ecco perché persino le “startup” di intelligenza artificiale di maggior successo, Open AI, Mistral, Inflection, finiscono per trasformarsi in cirripedi sullo scafo della nave Big Tech, la nave Microsoft, nel loro caso. Ecco perché Anthropic deve essere inteso come una specie di sussidiaria di Google e Amazon.
Oltre alle attuali tecnologie che vengono chiamate “AI”, dobbiamo anche guardare alla narrazione dell’AI stessa. La storia che anima il marketing e l’hype odierno: come viene utilizzato questo termine di marketing? Brandendo racconti quasi religiosi su computer coscienti, intelligenza artificiale generale, piccoli elfi che stanno nelle nostre tasche e, come servi, soddisfano ogni nostro desiderio, le grandi aziende hanno spianato la strada a un dominio senza precedenti.
Descrivendo i loro prodotti e servizi come l’apice del “progresso umano” e del “progresso scientifico”, queste aziende e i loro sostenitori stanno estendendo la loro portata e il loro controllo in quasi tutti i settori della vita, in quasi ogni regione della terra. Fornendo l’infrastruttura per governi, aziende, media e militari. Stanno vendendo i derivati del modello di business della sorveglianza tossica come il prodotto dell’innovazione scientifica.
E stanno lavorando per convincerci che i sistemi probabilistici che riconoscono modelli statistici in enormi quantità di dati sono strumenti oggettivi, intelligenti e sofisticati, capaci di quasi ogni funzione immaginabile. Di sicuro più capaci di noi, semplici mortali. E quindi dovremmo farci da parte e affidare a loro i nostri affari.
Ciò è incredibilmente pericoloso. La ricerca metastatica di crescita e fatturato senza fine guidata dal capitalismo azionario che alla fine spinge queste enormi corporazioni spesso diverge dal percorso verso un futuro vivibile.
Ci sono molti esempi che illustrano quanto sia pericoloso affidare le nostre infrastrutture principali e le decisioni di governance sensibili a questi pochi attori centralizzati. Studiosi come Abeba Birhane, Seda Gürses, Alex Hannah, Khadijah Abdurahman, Jathan Sadowski, Dan McQuillian, Amba Kak e Sarah Myers West, tra molti altri, hanno spiegato tali esempi in modo approfondito e con attenzione.
Qui, mi fermerò a riflettere su una tendenza particolarmente angosciante, che a mio avviso espone la tendenza più pericolosa di tutte. Queste enormi aziende di sorveglianza AI si stanno muovendo per diventare appaltatori della difesa, fornendo armi e infrastrutture di sorveglianza a militari e governi che scelgono di armare e con cui cooperano.
Siamo tutti abituati a vedere annunci nei nostri feed per pantaloni da yoga (anche se non fai yoga) o uno scooter (anche se ne hai appena comprato uno), o qualsiasi altra cosa. Li vediamo perché la società di sorveglianza che gestisce il mercato pubblicitario o la piattaforma social ha stabilito che si presume che queste siano cose che “persone come noi” vogliono o da cui sono attratte, in base a un modello di comportamento costruito utilizzando dati di sorveglianza. Dal momento che altre persone con modelli di dati simili ai tuoi hanno acquistato uno scooter, la logica è che probabilmente ne comprerai uno (o almeno cliccherai su un annuncio per uno). E quindi ti viene mostrato un annuncio. Sappiamo quanto sia impreciso e stravagante questo tipo di targeting. E quando si tratta di un annuncio, non è una crisi quando è mal indirizzato.
Ma quando la situazione è più seria, la storia è diversa.
Possiamo far risalire questa storia alla guerra dei droni degli Stati Uniti post-11 settembre, con il concetto di Signature Strike. Un signature strike usa la logica del targeting pubblicitario, determinando i bersagli da uccidere non in base alla conoscenza del bersaglio o alla certezza della sua colpevolezza, ma in base a modelli di dati e sorveglianza del comportamento che gli Stati Uniti, in questo caso, presumono essere associato ad attività terroristiche. Gli signature strike uccidono le persone in base ai loro profili di dati. E l’intelligenza artificiale e le piattaforme di sorveglianza su larga scala che alimentano i sistemi di intelligenza artificiale stanno potenziando questa capacità in modi incredibilmente pericolosi.
Conosciamo un esempio scioccante grazie al lavoro investigativo della pubblicazione israeliana 972, che ha riferito che l’esercito israeliano, dopo gli attacchi del 7 ottobre, sta attualmente utilizzando un sistema di intelligenza artificiale chiamato Lavender a Gaza, insieme a molti altri. Lavender applica la logica degli attacchi basati sul riconoscimento di pattern, resi popolari dagli Stati Uniti, combinati con le infrastrutture di sorveglianza di massa e le tecniche di targeting dell’intelligenza artificiale. Invece di servire annunci pubblicitari, Lavender inserisce automaticamente le persone in una lista di uccisioni in base alla somiglianza dei loro pattern di dati di sorveglianza con i pattern di dati di presunti militanti, un processo che sappiamo, come esperti, essere estremamente impreciso. Qui abbiamo la logica basata sull’intelligenza artificiale del targeting pubblicitario, ma per uccidere. Secondo il reportage di 972, una volta che una persona è nella lista di uccisioni di Lavender, non è solo lei a essere presa di mira, ma l’edificio in cui vive (e la sua famiglia, i vicini, gli animali domestici, chiunque altro) viene successivamente contrassegnato per il bombardamento, generalmente di notte, quando loro (e coloro che vivono lì) sono sicuramente a casa. Questo è qualcosa che dovrebbe allarmarci tutti.
Mentre un sistema come Lavender potrebbe essere implementato in altri luoghi, da altri eserciti, ci sono condizioni che limitano il numero di altri che potrebbero praticamente seguire l’esempio. Per implementare un sistema del genere, hai prima bisogno di dati di sorveglianza a livello di popolazione a grana fine, del tipo che il governo israeliano raccoglie e crea sui palestinesi. Questa sorveglianza di massa è una precondizione per creare “profili di dati” e confrontare milioni di modelli di dati di individui con tali profili al fine di determinare automaticamente se queste persone vengono aggiunte o meno a una lista di uccisioni. L’implementazione di un sistema del genere richiede in ultima analisi infrastrutture potenti e abilità tecniche, del tipo a cui hanno accesso governi tecnicamente capaci come gli Stati Uniti e Israele, così come le grandi aziende di sorveglianza. Pochi altri hanno tale accesso. Ecco perché, in base a ciò che sappiamo sull’ambito e l’applicazione del sistema AI Lavender, possiamo concludere che è quasi certamente dipendente dall’infrastruttura fornita da grandi aziende cloud statunitensi per la sorveglianza, l’elaborazione dei dati e, possibilmente, la messa a punto e la creazione di modelli AI. Perché raccogliere, creare, archiviare ed elaborare questo tipo e quantità di dati richiede praticamente infrastrutture cloud Big Tech, ovvero “come si fa” al giorno d’oggi. Questo dettaglio sottile ma importante indica anche una dinamica in cui i capricci delle aziende Big Tech, insieme a quelli di un dato regime statunitense, determinano chi può e chi non può accedere a tali armi.
Questo è anche il motivo per cui è fondamentale riconoscere la sorveglianza di massa (e in ultima analisi il modello di business della sorveglianza) come la radice della tecnologia su larga scala che attualmente chiamiamo “IA”.
Il che ci porta all’economia politica, ovviamente. Perché questa svolta verso gli appalti per la difesa che le grandi aziende tecnologiche hanno intrapreso è una parte fondamentale del loro modello di fatturato. Un lavoro di Tech Inquiry ha recentemente rivelato che i cinque maggiori contratti militari statunitensi con le principali aziende tecnologiche tra il 2019 e il 2022 hanno massimali contrattuali di 53 miliardi di dollari. E sono quelli che conosciamo. A causa della combinazione di classificazione militare e segretezza aziendale, la trasparenza, per non parlare della responsabilità, è molto difficile da ottenere.
L’uso di tecniche probabilistiche per determinare chi è degno di morte, ovunque vengano utilizzate, è, per me, l’esempio più agghiacciante dei gravi pericoli dell’attuale ecosistema centralizzato dell’industria dell’intelligenza artificiale e dei rischi materiali di credere alle roboanti affermazioni di intelligenza e accuratezza che vengono utilizzate per commercializzare questi sistemi imprecisi. E per giustificare la carneficina sotto la bandiera della sofisticatezza computazionale. Come ha affermato il Segretario generale delle Nazioni Unite Antonio Gutiérrez, “le macchine che hanno il potere e la discrezione di togliere vite umane sono politicamente inaccettabili, sono moralmente ripugnanti e dovrebbero essere vietate dal diritto internazionale”.
Per questo motivo mi unisco al Forum tedesco degli informatici per la pace e la responsabilità sociale nel chiedere che “le pratiche di uccisioni mirate con sistemi di supporto vengano messe al bando come crimini di guerra”.
In particolare data la possibilità molto concreta di un governo più autoritario negli Stati Uniti, dove hanno sede queste aziende. Un luogo in cui la destra del paese ha già diffuso piani per portare i due principali regolatori tecnologici degli Stati Uniti, la Federal Trade Commission e la Federal Communications Commission, sotto il diretto controllo presidenziale in futuro. Dove hanno sede quattro delle prime cinque piattaforme di social media, insieme ai giganti del cloud che attualmente controllano il 70% del mercato cloud globale. E dove un divieto federale di aborto è all’ordine del giorno della destra, accompagnato da campagne in corso di messa al bando dei libri e censura delle risorse e dell’espressione LGBTQ che stanno già plasmando la legislazione a livello statale.
Ma! Niente di tutto questo è una ragione per perdere la speranza! Lavoro ogni giorno, tengo discorsi come questo al posto di ringraziamenti e lodi soft-focus, perché ho speranza. Ho speranza, ma mi rifiuto di piantare la mia speranza nel terreno superficiale dell’illusione e del falso conforto.
C’è ancora tempo per creare un futuro bello e vivibile. Per mettere in discussione queste narrazioni e il controllo che danno a questi attori monopolistici. Possiamo smantellare questo modello di business di sorveglianza tossico e i derivati dell’IA che vengono spinti nel sistema nervoso delle nostre vite e istituzioni. C’è tempo, ad esempio, per verificare e comprendere le dipendenze dell’UE dai giganti dell’IA di sorveglianza degli Stati Uniti e per forgiare una strada migliore da seguire.
Perché una fine è l’inizio di un’altra cosa. E riconoscere che qualcosa non funziona, che si tratti di una relazione, di un lavoro o di un intero paradigma tecnologico, è il punto in cui un nuovo mondo può iniziare a nascere. Con il velo squarciato e la retorica benevola delle grandi aziende tecnologiche rivelatasi più marketing che realtà, possiamo iniziare seriamente a rivedere e ricostruire il nostro futuro tecnologico.
Non deve essere per forza così! La tecnologia computazionale è fantastica, può essere meravigliosa e può assumere molte, molte, molte forme.
Non dobbiamo competere con i giganti alle loro condizioni: perché lasciare che siano loro a stabilire le condizioni per cominciare? Possiamo creare le nostre condizioni! Da infrastrutture supportate socialmente che generano più applicazioni e piattaforme di comunicazione gestite localmente, a una ridefinizione, o rivendicazione, del concetto di IA, lontano dall’approccio più grande è meglio, dipendente dalla sorveglianza, verso modelli più piccoli costruiti con dati creati intenzionalmente che servono reali esigenze sociali. Per infrastrutture di base aperte, responsabili e condivise che, invece di essere abbandonate ed estratte, sono supportate e nutrite.
Qui, Signal funge da modello. E sono così onorato e orgoglioso di poter dedicare il mio tempo e la mia energia a nutrire e prendermi cura di Signal. L’app di messaggistica veramente privata più utilizzata al mondo e l’unica azienda tecnologica cool ❤
Signal è un potente esempio che dimostra che la tecnologia può essere fatta diversamente. L’enorme successo di Signal dimostra che la tecnologia che dà priorità alla privacy, rifiuta il modello di business dell’intelligenza artificiale di sorveglianza ed è responsabile nei confronti delle persone che la usano non solo è possibile, ma può prosperare e prosperare come organizzazione non-profit, supportata dalle persone che vi fanno affidamento, non dai dollari pubblicitari e dai contratti militari.
Quindi, come ho detto, sono ottimista. Il mio ottimismo mi spinge. E sono particolarmente ispirato dai giovani qui oggi, e da quelli con cui ho parlato questo pomeriggio, la cui energia e visione forniscono la leadership di cui abbiamo bisogno per sederci e affrontare le sfide serie che ci troviamo ad affrontare, mentre allo stesso tempo (ri)costruiamo e reinventiamo la tecnologia che riflette il mondo che vogliamo, non il mondo in cui i monopoli della pubblicità sulla sorveglianza ci dicono che siamo bloccati.
Grazie!
Traduzione Google AI




