Superintelligenza

Tendenze, pericoli, strategie

Nonfiction, Computers, Advanced Computing, Artificial Intelligence, Science & Nature, Science, Other Sciences, Philosophy & Social Aspects
Cover of the book Superintelligenza by Nick Bostrom, Bollati Boringhieri
View on Amazon View on AbeBooks View on Kobo View on B.Depository View on eBay View on Walmart
Author: Nick Bostrom ISBN: 9788833930176
Publisher: Bollati Boringhieri Publication: January 11, 2018
Imprint: Bollati Boringhieri Language: Italian
Author: Nick Bostrom
ISBN: 9788833930176
Publisher: Bollati Boringhieri
Publication: January 11, 2018
Imprint: Bollati Boringhieri
Language: Italian

«Lo consiglio vivamente. »
Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l’Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare. »
Elon Musk

««Non c’è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana. »
Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell’umanità: se l’Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?»
Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici.
E tuttavia c’è una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l’avremo costruita?
Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero.
Per questo – sostiene Bostrom – dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.

View on Amazon View on AbeBooks View on Kobo View on B.Depository View on eBay View on Walmart

«Lo consiglio vivamente. »
Bill Gates

«Da leggere assolutamente... Dobbiamo essere estremamente cauti con l’Intelligenza Artificiale. Potenzialmente, è più pericolosa del nucleare. »
Elon Musk

««Non c’è alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. È in gioco la sopravvivenza della civiltà umana. »
Financial Times

«Questa superba analisi, condotta da uno dei più chiari pensatori del mondo, affronta una delle più grandi sfide dell’umanità: se l’Intelligenza Artificiale sovrumana diventa il più grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?»
Max Tegmark

Nel gennaio 2015 Nick Bostrom è stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, né tantomeno per luddismo, bensì in virtù di un lineare ragionamento filosofico. L’Intelligenza Artificiale è una delle più grandi promesse dell’umanità; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari più a lungo e più felici.
E tuttavia c’è una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom è stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina «superintelligente» dopo che l’avremo costruita?
Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale è quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrerà a quelle macchine, una volta costruite, per superare e surclassare le nostre capacità intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine basterà un piccolo passo per «decollare» esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per «malvagità», ma anche solo come effetto collaterale della loro attività. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero.
Per questo – sostiene Bostrom – dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potrà apportare, è necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.

More books from Bollati Boringhieri

Cover of the book La seconda morte di Mallory by Nick Bostrom
Cover of the book A tua insaputa by Nick Bostrom
Cover of the book Le opere teatrali di Mozart by Nick Bostrom
Cover of the book Filosofia del Don Giovanni by Nick Bostrom
Cover of the book L'Universo matematico by Nick Bostrom
Cover of the book Il Maestro della Testa sfondata by Nick Bostrom
Cover of the book Perché solo noi by Nick Bostrom
Cover of the book Meno letteratura per favore! by Nick Bostrom
Cover of the book La rappresentazione del mondo nel fanciullo by Nick Bostrom
Cover of the book Breve storia di chiunque sia mai vissuto by Nick Bostrom
Cover of the book Nel labirinto by Nick Bostrom
Cover of the book La teoria psicoanalitica by Nick Bostrom
Cover of the book Io e Betty by Nick Bostrom
Cover of the book Per un'abbondanza frugale by Nick Bostrom
Cover of the book Le magnifiche 100 by Nick Bostrom
We use our own "cookies" and third party cookies to improve services and to see statistical information. By using this website, you agree to our Privacy Policy