La dimostrazione che per avere una visione critica sull’AI non serve per forza una conoscenza iper-tecnica (anche se, onestamente, il Prof probabilmente saprebbe spiegare pure la discesa stocastica del gradiente così come la backpropagation). Serve metodo, magari quello dei LdA, e intelligenza. Il libro restituisce una lettura lucidissima di una materia ormai abusata da (presunti) esperti di ogni ordine e grado. E smettetela di relegare certi argomenti ai (soli) tecnici.
Si parte dall’e(o)rrore originale: l’antropomorfizzazione dell’AI. Che darle proprio quel nome sia stata una scelta infelice lo sapevamo (meno che dal punto di vista economico), ma nel capitolo 4 il Prof va oltre: analizza cause ed effetti del “prestito concettuale” tra discipline. Questo però non è neutrale perchè "ogni termine tecnico fa parte di una rete di strutture concettuali a cui rimane legato, fornendo vincoli contestuali ed esercitando influenze e poteri semantici. Pertanto, quando si innestano da una disciplina a un altra porta con sé un bagaglio e delle implicazioni ulteriori".
Questo processo lo vediamo ovunque: dall’AI alle neuroscienze, dalla politica che eredita il lessico dalla teologia, alla biochimica che eredita dai propri ambiti di origine. Se importi vocabolario dalle scienze cognitive, ne importi anche bias e prospettive. Risultato: ricerca e investimenti finiscono spesso per seguire le linee guida della disciplina “donatrice”, più che esplorare davvero quella nuova. È forse anche così che abbiamo sviluppato i “modelli di reasoning” ( chiamarli modelli che generano una serie di token preventivi per restringere lo spazio di probabilità della risposta a quello più aderente alla domanda suona meno epico). E intanto chissà quante vie più originali abbiamo lasciato inesplorate (good news: c’è ancora spazio enorme di miglioramento).
Come dovremmo trattarla, allora, questa AI per non cadere nel tranello? Non come un’intelligenza, ma come una forma di agency. Concetto semplice, quasi banale, e proprio per questo destinato (purtroppo) a faticare a diventare mainstream. Ma è un inizio. Avevo già letto lo scorso anno il paper del prof che poi si è trasformato nella tesi centrale del libro (oltre alla riflessione sulla cultura del proxy). Nulla da dire, da leggere, magari un paio di volte.
L'inggano nell'era dell'IA: che bello rielaborare i concetti di originalità e autenticità. Mi aspettavo una critica alla definizione di deepfake (tanto più che viene proposta una definizione, quella di ectipo, assai più convincente), ma forse sono io troppo critico verso gli occhi attraverso cui il mondo guarda queste tecnologie.
Questa AI non ci ruberà il lavoro! Ripercorrere l’analisi del progetto umano secondo *Prospettive economiche per i nostri nipoti* (subito aggiunto in reading list) è la chiave giusta per rimettere il dibattito dentro una cornice più rotonda. Il progetto umano, secondo Keynes, si struttura attorno a tre problemi: (1) il problema economico, cioè la lotta per la sussistenza; (2) il problema della disoccupazione tecnologica, cioè lo squilibrio transitorio causato dall’introduzione di strumenti economizzatori di mandopera e dal tempo necessario per riallocare gli impieghi; (3) il problema dell’occupazione del tempo libero, una volta risolto il problema economico: come fare a non annoiarci? Spoiler: gli esempi del mondo d’oggi - i super ricchi - non è che se la stiano cavando proprio benissimo.
Dentro questa griglia, le profezie catastrofiste sulla “fine del lavoro” causata dall’AI si piazzano al punto (2). E la storia ci dice che questo tipo di squilibrio è sempre stato transitorio. Non abbiamo perso il lavoro con la ruota, con il fuoco, con la rivoluzione industriale, con internet o con gli smartphone: davvero dovremmo credere che con l’AI andrà diversamente? Le previsioni allarmiste degli illuminati di turno, da Gates a Musk a Burry, finora si sono rivelate spesso imprecise, quando non del tutto sbagliate. Il punto non è negare il problema, ma spostare il focus: la vera sfida è la governance dell’AI, per garantire benefici individuali, sociali e ambientali in modo equo. Il resto è rumore di fondo.
Il miglior giocatore di scacchi non è né l’umano né il computer, ma l’umano con il computer.
Ci sarà però qualcosa in cui mi trovo in disaccordo, almeno una? se proprio devo sforzarmi… Il capitolo 10, dove si sostiene che l’UE possa e debba giocare un ruolo cruciale nello sviluppo di modelli open source forti della propria infrastruttura tecnica, delle risorse multilingue e del quadro normativo avanzato, non mi ha convinto fino in fondo sul piano propositivo (l’analisi, invece, rimane inattaccabile).
L’infrastruttura tecnica, per cominciare, non è un vero fattore differenziante: in Silicon Valley non hanno prodotto i modelli SOTA perché avevano data center migliori, ma perché insiste su un ecosistema funzionale. Sulle lingue, il ragionamento mi sembra un po’ ottimistico: i modelli SOTA hanno già a disposizione una quantità enorme di dati multilingua, e non è chiaro quali margini reali di “vantaggio europeo” ci sarebbero in termini di performance. Non risultano, dai benchmark, lacune sistematiche sui principali idiomi europei. Infine il quadro normativo: l’AI Act, ad oggi, sembra generare più grattacapi che benefici. L’applicazione nazionale è frammentata, la burocrazia è pesante, e in diversi casi partire da zero potrebbe essere un vantaggio, non uno svantaggio.
Si arriva così all’ultimo concetto chiave: i proxy. In una società che scivola sempre più dall’analogico al digitale, con strumenti tecnologici che moltiplicano rappresentazioni, indici, metriche e punteggi, diventa urgente sviluppare una vera cultura del proxy. I proxy dovrebbero essere acceleratori di accesso alla realtà, non surrogati che la schermano, la distorcono e la rendono inaccessibile.
Libro concluso. Io in palese overload di stimoli intellettuali e incazzato che il mondo non usi le lenti del Prof per affrontare le tematiche AI