【電子書籍なら、スマホ・パソコンの無料アプリで今すぐ読める!】
≪≪Da leggere assolutamente... Dobbiamo essere estremamente cauti con l’Intelligenza Artificiale. Potenzialmente, ? pi? pericolosa del nucleare≫. ≫ Elon Musk ≪Questa superba analisi, condotta da uno dei pi? chiari pensatori del mondo, affronta una delle pi? grandi sfide dell’umanit?: se l’Intelligenza Artificiale sovrumana diventa il pi? grande evento della storia umana, allora come potremo garantire che non diventi anche l’ultimo?≫ Max Tegmark ≪≪Non c’? alcun dubbio sulla forza degli argomenti di Bostrom. Il problema pone una sfida formidabile ai migliori talenti matematici della prossima generazione. ? in gioco la sopravvivenza della civilt? umana. ≫ Financial Times ≪≪Lo consiglio vivamente≫. ≫ Bill Gates Nel gennaio 2015 Nick Bostrom ? stato cofirmatario, assieme tra gli altri a Stephen Hawking, di una celebre lettera aperta che metteva in guardia sui potenziali pericoli dell’Intelligenza Artificiale. Non ha firmato quell’appello per passatismo, n? tantomeno per luddismo, bens? in virt? di un lineare ragionamento filosofico. L’Intelligenza Artificiale ? una delle pi? grandi promesse dell’umanit?; grazie ai suoi sviluppi, attuali e futuri, saremo probabilmente in grado di fare cose che oggi sarebbero impensabili, vivremo meglio, e magari pi? a lungo e pi? felici. E tuttavia c’? una nube minacciosa sopra il cielo dell’Intelligenza Artificiale, e con questo libro Nick Bostrom ? stato il primo a vederla e ad analizzarla, lanciando un allarme che ha avuto un’eco vastissima in tutto il mondo. Siamo proprio certi che riusciremo a governare senza problemi una macchina ≪superintelligente≫ dopo che l’avremo costruita? Se lo scopo dell’attuale ricerca sull’Intelligenza Artificiale ? quello di costruire delle macchine fornite di un’intelligenza generale paragonabile a quella umana, quanto tempo occorrer? a quelle macchine, una volta costruite, per superare e surclassare le nostre capacit? intellettive? Poco, ci informa Bostrom, pochissimo. Una volta raggiunto un livello di intelligenza paragonabile al nostro, alle macchine baster? un piccolo passo per ≪decollare≫ esponenzialmente, dando origine a superintelligenze che per noi risulteranno rapidamente inarrivabili. A quel punto le nostre creature potrebbero scapparci di mano, non necessariamente per ≪malvagit?≫, ma anche solo come effetto collaterale della loro attivit?. Potrebbero arrivare a distruggerci o addirittura a distruggere il mondo intero. Per questo ? sostiene Bostrom ? dobbiamo preoccuparcene ora. Per non rinunciare ai benefici che l’Intelligenza Artificiale potr? apportare, ? necessario che la ricerca tecnologica si ponga adesso le domande che questo libro pone con enorme chiarezza e chiaroveggenza.画面が切り替わりますので、しばらくお待ち下さい。
※ご購入は、楽天kobo商品ページからお願いします。
※切り替わらない場合は、こちら をクリックして下さい。
※このページからは注文できません。