3 Commenti

I tuoi dubbi, senz’altro plausibili, non giustificano il fatto di non farsi trovare pronti se e quando una “cosa” simile all’AGI busserà alla nostra porta. Il tuo post, in sostanza, ricalca le recenti dichiarazioni di Yann LeCun (VP & Chief Scientist di Meta), che non condivido assolutamente.

Expand full comment
author

Niente da criticare sulla volontà di fare ricerca su AGI, ovviamente, e suoi potenziali rischi esistenziali. Ci mancherebbe. Quel che critico è il fatto di veicolare quelli come unici rischi, concentrandosi su di essi e nemmeno minimamente su quelli già attuali, esistenti e impattanti che potrebbero essere mitigati in più modi. Quindi no, non condivido l'idea di focalizzare e spostare tutta l'attenzione da ciò che esiste su ciò che non esiste ancora - e che potrebbe non esistere mai.

Expand full comment

Non c'è alcun interesse a mitigare i rischi di ciò che (probabilmente) verrà, figuriamoci di ciò che abbiamo già. Il leitmotiv è "fare cassa", senza preoccuparsi più di tanto dei potenziali rischi. Ci sarebbe molto da fare, su questo hai perfettamente ragione, ma lasciar fare i controlli ai controllati è, a mio avviso, un grande errore. La farsa del comitato interno di OpenAI, presieduto, tra gli altri, dallo stesso Altman, ne è una riprova. My2Cents.

Expand full comment