#/ Uno dei più grandi inganni del nostro tempo
Gli impatti reali dell'IA continuano a venire oscurati dall'hype, ancora una volta incentrato su presunti "rischi esistenziali": uno dei più grandi inganni del nostro tempo.
Ciao! Questo è un numero speciale - e molto improvvisato - di Resistere all’inevitabile ✨ per condividere una riflessione e non necessariamente una sola domanda. In questo caso, scaturita dalla grande frustrazione che mi genera il fatto che il dibattito sull’IA venga portato avanti sostanzialmente solo intorno a ciò che accade a una sola azienda statunitense. Anche la narrazione che cercano di diffondere sembra inevitabile.
Questa settimana si è tornati a parlare di "long-term risks" per un'altra notizia targata Open AI: Ilya Sutskever si è dimesso, e dopo poco anche Jan Leike. Entrambi erano a capo del Super Alignment team, che ora non esiste più. Si occupava, in teoria, di ciò che loro definiscono AI Safety (qui un approfondimento sul concetto): l'obiettivo principale era cercare soluzioni per controllare un'ipotetica "super intelligenza", o Artifical General Intelligence (AGI), ed evitare che portasse a rischi esistenziali. Per questo, molte persone - e soprattutto moltɜ giornalistɜ - nelle ultime ore hanno scritto che Open AI ha rinunciato al team che si occupava di etica e sicurezza. Non è proprio così, ed è importante capire perché e parlarne per sfatare l'ennesimo mito che si crea intorno a questa narrativa pericolosa. Ma anche perché siamo di fronte al potere - in questo caso tecnologico - in senso stretto, è (anche) così che va inquadrato questo dibattito.
Un passo indietro. Intorno all'AGI, ovvero la convinzione che esisteranno applicazioni in grado di svolgere compiti "generali" in modo superiore agli esseri umani, ruota più o meno tutto il business di questa azienda sul lungo periodo. Questa “super intelligenza” - sempre in base a come viene descritta - cambierebbe radicalmente le società umane, perché per essere tale dovrebbe poter trovare nuove soluzioni ai problemi, e anche essere in grado di simularle per poterci dare poi la certezza di quella nuova scoperta.
Al momento, siamo molto lontani da tutto questo. I sistemi di oggi sono migliori della maggior parte degli esseri umani in compiti specifici, perché la logica e molto altro vengono automatizzate. Nessun punto di partenza è radicalmente nuovo, originale, o almeno non c’è alcun processo mentale da costruire da zero. È sempre lo stesso errore, quello di confondere la sintassi con la semantica: nessuna comprensione o significato, ma simboli, significanti.
Alcune persone (mi trovo tra queste) ritengono che la natura stessa dell’IA non potrà mai portare alla strada della comprensione, e quindi di una super intelligenza per come viene descritta perché la statistica - su cui diversi anni fa si è deciso di basare ciò che ora chiamiamo IA - non la permette: è sintattica, trova le correlazioni e le probabilità, non le cause o i significati profondi. La stessa logica si applica quando è il linguaggio a essere elaborato: la comprensione non ha a che fare con il significato perché manca l’esperienza del mondo.
Non solo quindi non si ha idea di quando potrebbe arrivare, ma l’AGI potrebbe anche non arrivare mai. Le ipotesi da fare per poter affermare che un giorno questo stato di cose arriverà sono tante e su nessuna abbiamo certezza. Eppure, su questo scenario si basano da mesi, anni enormi investimenti, discorsi e preoccupazioni.
Non solo si spende per poter fare ricerca e sviluppo e aumentare le possibilità di arrivarci tecnicamente, ma addirittura si mettono in piedi team incaricati di studiare come evitare che, una volta raggiunto quel punto, si incorra in una serie di rischi esistenziali a cascata. Tutto questo fa credere che l'AGI sia imminente, ma non è così. Tante persone ascoltano così tanto questa narrativa senza metterla in discussione che diventa subito e facilmente reale. La fiducia quasi incondizionata e così acritica di alcune persone è ciò che dovrebbe spaventarci. D’altra parte, non esistono veramente discorsi sani, bilanciati, netti da contrapporvi (che sarebbero, volendo, responsabilità delle istituzioni).
Il team di OpenAI che non esiste più non aveva a che fare con l’etica: l’obiettivo non è mai stato (loro stessi non l’hanno mai comunicata e raccontata in questo modo) di cercare soluzioni ai pericoli sociali e ambientali reali e già parecchio presenti. Esclusa Microsoft, praticamente nessuna Big Tech possiede ancora un team etico interno dedicato a questo (e personalmente non penso sia un male, anzi, a patto che venga richiesto a terze parti di occuparsene).
Il team di Sutskever e Leike lavorava per trovare soluzioni a qualcosa di gigantesco e che forse non arriverà mai. Un altro nodo, però, è la forma che queste “soluzioni” avevano. Come racconta Erik Salvaggio, stavano sostanzialmente ipotizzando dei sistemi di IA più piccoli e più “banali” per controllare quelli più grandi e più intelligenti, una soluzione prettamente tecnica e ingegneristica a potenziali problemi causati dalla stessa tecnica. Il team era composto solo da ricercatori in ML e ingegneri (il plurale maschile non è una svista). La problematicità di queste proposte per me è davvero grande, il fatto che dopo tutta la letteratura a disposizione che negli ultimi anni ha dimostrato quanto di umano c’è in questi errori possa sembrare ancora una buona idea quella di ingegnerizzare il controllo dell’IA su problemi come i bias, senza alcun ragionamento culturale, sociale, politico di fondo mi sembra veramente assurdo.
Ma soprattutto: come si potrebbero cercare soluzioni per potenziali “rischi esistenziali” per l’umanità e limitarsi a questo tipo di interventi, senza coinvolgere competenze di altro tipo? Dovrebbe essere proprio qui, facendoci questa domanda, che ci rendiamo conto di quanto stiamo seguendo la strada sbagliata (o quantomeno fuorviante) e perdendo di vista l’obiettivo. D’altronde, se stessero davvero facendo questo, saremmo davanti una delle più evidenti contraddizioni morali della storia.
📬 Se siete arrivatɜ fino a qui, grazie di cuore! Per questo numero è tutto. Mi piacerebbe molto sapere cosa ne pensate, o se avete domande da condividere e/o suggerimenti. Potete sempre scrivermi a info@dilettahuyskes.eu. Se vi va di aiutarmi a creare questa piccola comunità di curiosɜ, potete condividere questa newsletter con altre persone che pensate possano essere interessate.
Ci sentiamo il prossimo mese!
Diletta
I tuoi dubbi, senz’altro plausibili, non giustificano il fatto di non farsi trovare pronti se e quando una “cosa” simile all’AGI busserà alla nostra porta. Il tuo post, in sostanza, ricalca le recenti dichiarazioni di Yann LeCun (VP & Chief Scientist di Meta), che non condivido assolutamente.