La saga di Sam Altman, l’intelligenza artificiale e la vittoria del profitto

Download PDF

L’intelligenza artificiale incombe. Tra entusiasmi, illusioni, paure. Spesso con una sua parificazione alla magia. Per lo più senza una consapevolezza, anzitutto politica, del suo potenziale ruolo sociale, della sua portata, delle modalità di un suo governo razionale. Per contribuire a colmare questa lacuna, abbiamo deciso di lanciare qualche spunto, qualche goccia nel mare iniziando con un contributo di Davide Lovisolo a cui altri faranno seguito nei prossimi giorni. (la redazione).

Il 17 novembre 2023, le agenzie di stampa e molte riviste internazionali fra cui Nature (Jones, N., Nature 2023, 623:899) riportavano una notizia abbastanza sensazionale: OpenAI – la società che ha sviluppato il bot (o programma) di intelligenza artificiale (IA) che nel giro di pochi mesi ha invaso il mondo e le nostre teste, ChatGPT – aveva licenziato il suo CEO e leader, Sam Altman. Ma le notizie sensazionali erano appena cominciate: cinque giorni dopo, e dopo vari colpi di scena, OpenAI annunciava che Altman tornava al timone. Altman, cofondatore di OpenAI, aveva gestito l’ingresso di Microsoft nella società con un investimento di 13 milioni di dollari. Il Consiglio di amministrazione che lo aveva buttato fuori non aveva dato giustificazioni dettagliate, accusandolo di non essere sempre trasparente nelle comunicazioni con il Consiglio, ma aggiungendo successivamente che non c’erano in ballo questioni di illeciti finanziari o di sicurezza.

La rivista MIT Technology Review ha dedicato molti articoli alla vicenda, che utilizzeremo, insieme ad altre fonti, per cercare di capire il significato di questo scontro.

OpenAI è stata fondata nel 2015 come organizzazione non profit, ma nel 2019 si è trasformata in società capped profit, cioè che può fare profitti fino a un certo tetto: secondo molti osservatori, è una foglia di fico per coprire la transizione ad un’impresa full profit. In realtà è una società non profit che possiede un’impresa profit con un bilancio annuale di 1 miliardo di dollari.

In seguito al licenziamento di Altman, la Microsoft (che usa la tecnologia di OpenAI nel suo motore di ricerca Bing e ha altri sviluppi in corso), gli aveva offerto un posto per coordinare un nuovo gruppo di ricerca sul tema; ma intanto centinaia di dipendenti di OpenAI avevano firmato una lettera minacciando di seguire Altman. E così Altman è tornato al suo posto, il Cda è stato rimaneggiato e alcuni membri, probabilmente quelli più critici, sono stati esclusi. Uno degli aspetti tragicomici della vicenda è che il membro del CdA che aveva capeggiato il licenziamento di Altman, Ilya Sutskever, nei giorni successivi ha firmato anche lui la lettera in cui si minacciava di seguire Altman se non veniva reintegrato, dichiarandosi dispiaciuto per l’accaduto (What does OpenAI’s rapid unscheduled disassembly mean for the future of AI? | Nieman Journalism Lab (niemanlab.org) ). Ciò dice molto sull’ambiente in cui si lavora a questi giocattoloni: o ci sono seri problemi di comportamento, oppure enormi pressioni (più probabilmente entrambe le ipotesi sono vere). Un’altra fonte (The OpenAI Drama Has a Clear Winner: The Capitalists – The New York Times (nytimes.com)) riporta che i firmatari hanno scritto che il CdA aveva informato i capi progetto che dissolvere l’impresa era coerente con la sua missione: se questa era produrre tecnologia “buona”, e c’era il rischio di produrne di “cattiva”, era meglio chiudere. E ciò era, per i firmatari, inaccettabile. Un altro commentatore ha descritto i dipendenti di OpenAI come coinvolti in un’adesione messianica, al confine del fanatico (The Inside Story of Microsoft’s Partnership with OpenAI | The New Yorker). Tutto ciò getta una luce inquietante sugli individui e le organizzazioni che stanno lavorando al nostro futuro. In questi di giorni di caos, chi ha gestito il gioco su più tavoli è stata Microsoft, che alla fine ha vinto. Avrebbe vinto comunque fossero andate le cose, o imponendo al CdA di OpenAI di rimangiarsi tutto o prendendosi Altman e praticamente tutti i dipendenti e di fatto soffocando la sua controllata. D’altra parte, OpenAI è stata valutata attorno a 80 miliardi di dollari, e non era mica roba da lasciarsi scappare di mano.

La sostanza dello scontro era fra chi vuole rallentare, e creare strumenti che controllino possibili deviazioni dell’IA e chi dice che son tutte storie, sono i soliti problemi di qualunque sviluppo tecnologico (What’s next for OpenAI | MIT Technology Review). Non profit vs. profit, un po’ schematicamente. E alla fine la cultura profit ha vinto, come vedremo meglio più sotto, nella migliore (…) tradizione delle imprese della Silicon Valley. Tutto questo in un quadro di fortissima competizione, che ha visto altri, fra cui Google, con il suo bot Bard a lanciarsi nella corsa nella primavera scorsa (GPT era stato lanciato a fine 2022). Amazon è stata ovviamente della partita, con il suo prodotto, Titan, ma anche aziende minori stanno lanciando i loro prodotti. Tutte comunque si basano sulle enormi e costosissime capacità di calcolo fornite da tre società: Google, Microsoft e Amazon. Solo e sempre loro, con i conseguenti esiti certi (non li definirei rischi) di creare un ambiente ancora più monopolistico.

Questo quadro alimenta ulteriori spinte all’accelerazione. Il pericolo maggiore, quello che gli osservatori più attenti paventano è l’immissione nel mercato di prodotti che nessun organo collettivo ha preventivamente esaminato dal punto di vista dell’impatto generato e prima che la gente capisca davvero come funzionano, quali sono i possibili usi e abusi, con gravi rischi per la società (meccanismo non nuovo nel turbocapitalismo, e foriero della maggior parte dei guai che ci affliggono, a parere dello scrivente). La spinta a mantenere il dominio porta ad una competizione tossica. «È una corsa verso il fondo» ha scritto un’osservatrice esterna. Un altro commentatore ha detto: «se la corsa è a fare un’auto che vada il più veloce possibile, la prima cosa da fare è eliminare i freni» (Jones, N., Nature 2023, 623:899 ).

Un articolo del New York Times (The OpenAI Drama Has a Clear Winner: The Capitalists – The New York Times (nytimes.com)) ha ricostruito alcuni aspetti dello scontro: da una parte, la IA è solo un nuovo strumento tecnologico, nelle serie che va dalla macchina a vapore al computer; se usato correttamente, può aprire una nuova era di prosperità e far fare un sacco di soldi a chi ne sfrutta il potenziale; dall’altra ci stanno quelli che vedono la IA come qualcosa di alieno, un leviatano emerso dal mondo delle reti neurali, che deve essere tenuto a bada e utilizzato con estrema cautela per evitare che ci prenda la mano e ci faccia fuori. I membri del CdA che hanno tentato di buttare fuori Altman appartenevano a questa squadra, avendo l’idea che in agguato ci sia il rischio del momento in cui si crea la singularity, un punto a cui l’IA supera la nostra capacità di controllarla. OpenAI è stata fondata con l’obiettivo di sviluppare un sistema di intelligenza artificiale generale (AGI), in grado cioè non di svolgere uno specifico compito, ma di essere intelligente a tutto campo, come una persona. Se ciò sia realizzabile o no è tuttora oggetto di accese discussioni, ma intanto il rischio è che gli strumenti sviluppati a un ritmo sempre più frenetico possano essere usati in maniera dannosa, per creare malinformazione, ricatti, armi bioterroristiche; sicuramente, poiché lavorano basandosi sui dati esistenti, tendono a rinforzare ingiustizie sociali e diseguaglianze. Su tempi più lunghi, i timori sono di un sistema che sviluppa sufficiente potere di controllo per guidare il mondo in una direzione malvagia (come se ce ne fosse bisogno). Sembra fantascienza ma non lo è: la minaccia di una IA che nessuno può più “spegnere” e che inneschi una spirale distruttiva è reale.

Nella sintesi del New York Times: «Team Capitalism won. Team Leviathan lost» (Il capitalismo ha vinto, le paure del leviatano hanno perso). E secondo l’articolista, forse l’esito era inevitabile: una tecnologia del genere non può essere lasciata in mano a chi vuole rallentarne lo sviluppo – non quando ci sono tutti questi soldi in gioco. Verrebbe da aggiungere: se lo scontro si presenta come una battaglia fra gli “utopisti” del capitalismo e chi ha paura dell’innovazione, la guerra è persa in partenza. Vicende come queste dovrebbero far riflettere sulla drammatica necessità di un diverso modello economico e di relazioni sociali, che vuol dire anche come si produce innovazione, a chi è diretta, chi la controlla, e così via.

L’articolo del New Yorker (The Inside Story of Microsoft’s Partnership with OpenAI | The New Yorker) aggiunge altri particolari e altre considerazioni al quadro. Sugli scontri interni alla società, voci ben informate segnalavano che Altman era considerato molto abile a mettere gli uni contro gli altri, un comportamento definito “scivoloso”, con un controllo dell’informazione sia paese che occulto. L’articolista scrive che non era chiaro se i membri de CdA, che hanno preparato l’estromissione in segreto, per prendere tutti di sorpresa, fossero più spaventati dai computer troppo intelligenti o dal rischio che Altman partisse per la tangente. In realtà avevano completamente sbagliato valutazione, pensando che Microsoft avrebbe accettato la loro mossa. Ma come abbiamo già detto, gli interessi in ballo erano troppo grossi. Oltre all’investimento iniziale, Microsoft possiede circa il 50% del ramo profit, e non a caso. La compagnia sta incorporando tutta una sere di “assistenti” avanzati basati sulla tecnologia OpenAI nei suoi prodotti di base, come Word, Outlook, e PowerPoint. Questi software, versioni più specializzate e anche più potenti del pubblicizzato ChatGPT, sono stati chiamati “Office Copilots”. Sono in grado di scrivere un intero documento a partire da semplici istruzioni. Possono seguire una videoconferenza e fornirne un riassunto in più lingue, possono ricordarti che hai già scritto qualcosa di simile in passato e proporti di riutilizzarlo, e così via. Non li vediamo ancora sui nostri computer perché per ora Microsoft li ha distribuiti ai grossi clienti, anche per verificarne l’accoglienza e raccogliere suggerimenti su come modificarli e migliorarli.

Il responsabile della tecnologia di Microsoft, Kevin Scott, ha preso atto delle preoccupazioni dei membri del CdA che hanno tentato di far fuori Altman, e le ha incorporate in una strategia che mira ad andare avanti comunque, ma appunto con cautela, facendo sì che la nuova tecnologia entri un poco alla volta nelle abitudini degli utilizzatori, a cominciare dalle operazioni più banali e ripetitive; la sua idea è di fornire strumenti che consentano al sistema di interagire con utenti non esperti con un linguaggio semplice ed accessibile, con una certa trasparenza nell’informazione. Microsoft ha creato una divisione “Responsible A.I.”, con circa 350 (!) programmatori, avvocati ed esperti di policy, con l’obiettivo di costruire una IA “che vada a beneficio della società” e di prevenire conseguenze negative. I Copilots, così chiamati per mettere l’accento sul fatto che non son autonomi ma al servizio dell’utente, conterranno molti messaggi che segnaleranno la necessità di controllare eventuali errori o deviazioni.

Questo dà un’indicazione di come intende muoversi il mastodonte: avanti dritta, ma con qualche cautela. Scrive il New Yorker: «L’IA continuerà a infilarsi nelle nostre vite, a una velocità sufficientemente graduale per essere compatibile con le preoccupazioni dei pessimisti a breve termine, e con la capacità degli umani di assorbire l’uso di questa tecnologia». Riguardo al rischio che il sistema prenda la mano – e che la crescita incrementale ci impedisca di accorgercene se non quando sarà troppo tardi – Scott e collaboratori pensano di poter controllare il processo. Per prevenire questo rischio, prendendo sul serio almeno in parte i timori che muovevano Sutskever, hanno creato un gruppo che si occupa del cosiddetto “superallineamento” (Now we know what OpenAI’s superalignment team has been up to | MIT Technology Review). Si parte dalla convinzione che prima o dopo le macchine supereranno gli umani. Il problema è secondo loro, come allineare questi sistemi superintelligenti al nostro livello. In pratica, i collaudatori valutano le risposte di un modello, dando voti positivi a quelle che vogliono ricevere e negativi a quelle che non piacciono. Il feedback serve a insegnare il modello a “comportarsi bene” e a dare solo riposte accettabili. Ma tutto ciò è piuttosto rozzo e ingenuo, se così si può dire: si usa un programma più vecchio (e più semplice) per dire a quello più potente cosa deve e non deve fare, simulando l’umano stupido che istruisce la superintelligenza. E se la superintelligenza fa cose che gli umani non riescono a capire e a valutare? Sutskever sostiene che potrebbe anche nascondere il suo vero comportamento agli umani… Allora, saltiamo tutti giù dalla barca? No, dice Microsoft, ci sono soldi a volontà. E ha annunciato un nuovo fondo di 10 milioni di dollari dedicato specificamente a finanziare singoli e istituzioni che vogliano lavorare al supreallineamento. Con i soldi si fa tutto, e tanti auguri a tutti noi.

Per concludere, un articolo di The Nation (The Antitrust Lessons of the OpenAI Saga | The Nation) affronta un altro aspetto, di valenza più generale (si fa per dire): la potenza del capitale monopolistico e la sua capacità di sfuggire i controlli. La vittoria del Ceo di Microsoft, Satya Nadella, nel braccio di ferro con i ribelli significa che potrà mantenere un accesso esclusivo alla tecnologia della controllata, solo apparentemente sopravvissuta come entità indipendente, con un controllo sempre più stretto sul futuro della IA. E questo ha fatto suonare campanelli di allarme in chi si occupa di antitrust. Microsoft non aveva interesse ad acquisire OpenAI per controllarla, in quanto aveva già in mano tutte le licenze esclusive e le chiavi di acceso dell’azienda alla sua infrastruttura di calcolo. Aveva solo da perdere: è molto più facile considerare un’azienda responsabile di quello che fa tramite i suoi dipendenti e la sua struttura, rispetto al caso in cui si tratti di azioni di contractors formalmente indipendenti. Più la catena di fornitura è lunga e complessa, più la capofila può operare con ampia impunità. Con Altman di nuovo al suo posto, Microsoft ha stretto ancora di più il controllo su OpenAI, con un efficace scudo che la mette al riparo legale dai guai che la controllata potere combinare. L’articolo mette in risalto come questa sia una strategia comune per la grandi Corporations: è il vertical outsourcing, opposto ai vertical mergers: nel secondo caso i grandi colossi sono esposti a molti più problemi (ad esempio i tentativi di organizzare rappresentanze sindacali), mentre nel primo possono in ogni momento rescindere il contratto con un subfornitore che abbia accettato il sindacato (come ha recentemente fatto Amazon con un suo contractor). La stessa Microsoft ha recentemente dovuto accettare un accordo con col sindacato per portare i lavoratori di un subfornitore alle sue dirette dipendenze, con grossi vantaggi per i lavoratori. Ma appena possono, Ie imprese scelgono la strada della non responsabilità. E, a chiusura di questa storia, questo è un altro aspetto della guerra delle grandi multinazionali alla democrazia economica.

Gli autori

Davide Lovisolo

Davide Lovisolo è stato docente di Fisiologia all'Università di Torino dal 1968 al 2015. Dal 1968 ha militato nei movimenti di base, è stato attivista politico in Avanguardia Operaia e poi in Democrazia Proletaria fino al 1978; dal 1980 al 1991 ha militato nel PCI. È stato uno dei responsabili del movimento per il diritto alla casa a Torino negli anni Settanta, delegato sindacale e esponente del Coordinamento Genitori torinese dal 1992 all'inizio degli anni 2000. Da anni è attivo nella cooperazione sociale.

Guarda gli altri post di: