Gli impatti reali dell'IA continuano a venire oscurati dall'hype, ancora una volta incentrato su presunti "rischi esistenziali": uno dei più grandi inganni del nostro tempo.
I tuoi dubbi, senz’altro plausibili, non giustificano il fatto di non farsi trovare pronti se e quando una “cosa” simile all’AGI busserà alla nostra porta. Il tuo post, in sostanza, ricalca le recenti dichiarazioni di Yann LeCun (VP & Chief Scientist di Meta), che non condivido assolutamente.
Niente da criticare sulla volontà di fare ricerca su AGI, ovviamente, e suoi potenziali rischi esistenziali. Ci mancherebbe. Quel che critico è il fatto di veicolare quelli come unici rischi, concentrandosi su di essi e nemmeno minimamente su quelli già attuali, esistenti e impattanti che potrebbero essere mitigati in più modi. Quindi no, non condivido l'idea di focalizzare e spostare tutta l'attenzione da ciò che esiste su ciò che non esiste ancora - e che potrebbe non esistere mai.
Non c'è alcun interesse a mitigare i rischi di ciò che (probabilmente) verrà, figuriamoci di ciò che abbiamo già. Il leitmotiv è "fare cassa", senza preoccuparsi più di tanto dei potenziali rischi. Ci sarebbe molto da fare, su questo hai perfettamente ragione, ma lasciar fare i controlli ai controllati è, a mio avviso, un grande errore. La farsa del comitato interno di OpenAI, presieduto, tra gli altri, dallo stesso Altman, ne è una riprova. My2Cents.
I tuoi dubbi, senz’altro plausibili, non giustificano il fatto di non farsi trovare pronti se e quando una “cosa” simile all’AGI busserà alla nostra porta. Il tuo post, in sostanza, ricalca le recenti dichiarazioni di Yann LeCun (VP & Chief Scientist di Meta), che non condivido assolutamente.
Niente da criticare sulla volontà di fare ricerca su AGI, ovviamente, e suoi potenziali rischi esistenziali. Ci mancherebbe. Quel che critico è il fatto di veicolare quelli come unici rischi, concentrandosi su di essi e nemmeno minimamente su quelli già attuali, esistenti e impattanti che potrebbero essere mitigati in più modi. Quindi no, non condivido l'idea di focalizzare e spostare tutta l'attenzione da ciò che esiste su ciò che non esiste ancora - e che potrebbe non esistere mai.
Non c'è alcun interesse a mitigare i rischi di ciò che (probabilmente) verrà, figuriamoci di ciò che abbiamo già. Il leitmotiv è "fare cassa", senza preoccuparsi più di tanto dei potenziali rischi. Ci sarebbe molto da fare, su questo hai perfettamente ragione, ma lasciar fare i controlli ai controllati è, a mio avviso, un grande errore. La farsa del comitato interno di OpenAI, presieduto, tra gli altri, dallo stesso Altman, ne è una riprova. My2Cents.