Superintelligence: Paths, Dangers, Strategies
Autor Nick Bostromen Limba Engleză Hardback – 3 iul 2014
Evoluția rapidă a inteligenței artificiale a translatat discuția despre mașini inteligente din zona speculațiilor science-fiction direct în centrul filozofiei analitice și al strategiei globale. Observăm cum Superintelligence de Nick Bostrom nu se mulțumește să inventarieze progresele tehnice, ci analizează riguros schimbarea de paradigmă în care specia umană ar putea pierde controlul asupra propriei destine. Premisa este una de o gravitate extremă: dacă creierul uman posedă capacități distinctive care ne-au asigurat dominația, o superinteligență digitală ne-ar putea plasa în poziția vulnerabilă în care se află astăzi gorilele față de oameni.
Apreciem rigoarea cu care Nick Bostrom explorează peisajul complex al „detonării controlate” a unei explozii de inteligență. Autorul introduce termeni tehnici precum normativitatea indirectă, convergența instrumentală și emularea întregului creier, reușind să mențină o claritate a expunerii care face accesibil un teren intelectual altfel arid. Lucrarea completează perspectiva oferită de Artificial Superintelligence de Roman V. Yampolskiy, adăugând o dimensiune filozofică profundă și o analiză a strategiilor de siguranță pe termen lung pe care Yampolskiy le abordează dintr-o perspectivă mai tehnică.
Această ediție publicată de OUP OXFORD integrează viziunea autorului despre riscurile sistemice, temă centrală și în lucrarea sa anterioară, Global Catastrophic Risks. Dacă în Human Enhancement Bostrom analiza potențialul de creștere a capacităților biologice, aici el avertizează că succesul în crearea unei inteligențe superioare ar putea fi ultimul eveniment major al istoriei umane dacă nu este gestionat corect. Textul este esențial pentru înțelegerea mecanismelor de control (boxing methods, tripwires) necesare înainte de atingerea singularității.
Preț: 137.04 lei
Preț vechi: 169.12 lei
-19%
Carte disponibilă
Livrare economică 05-16 iunie
Livrare express 23-29 mai pentru 73.50 lei
Specificații
ISBN-10: 0199678111
Pagini: 352
Ilustrații: black and white line drawings and halftones
Dimensiuni: 161 x 240 x 27 mm
Greutate: 0.68 kg
Editura: Oxford University Press
Colecția OUP Oxford
Locul publicării:Oxford, United Kingdom
De ce să citești această carte
Recomandăm această carte oricărui cititor preocupat de viitorul tehnologiei și de etica inteligenței artificiale. Nick Bostrom oferă un cadru teoretic solid pentru a înțelege riscurile existențiale, trecând dincolo de entuziasmul momentan al algoritmilor de învățare automată. Veți câștiga o perspectivă critică asupra modului în care umanitatea poate configura condițiile inițiale ale unei superinteligențe pentru a asigura supraviețuirea speciei.
Despre autor
Nick Bostrom este profesor la Facultatea de Filozofie a Universității Oxford și director fondator al Future of Humanity Institute. Cu un parcurs academic ce îmbină fizica, neuroștiințele computaționale și logica matematică, Bostrom este recunoscut ca unul dintre cei mai importanți gânditori contemporani în domeniul riscurilor existențiale. A publicat peste 200 de lucrări, printre care Global Catastrophic Risks și Human Enhancement, coordonând cercetări vitale în cadrul Oxford Martin School despre impactul tehnologiilor viitoare asupra condiției umane.
Descriere
Recenzii
I highly recommend this book
very deep ... every paragraph has like six ideas embedded within it.
Nick Bostrom makes a persuasive case that the future impact of AI is perhaps the most important issue the human race has ever faced. Instead of passively drifting, we need to steer a course. Superintelligence charts the submerged rocks of the future with unprecedented detail. It marks the beginning of a new era
Those disposed to dismiss an 'AI takeover' as science fiction may think again after reading this original and well-argued book
This superb analysis by one of the worlds clearest thinkers tackles one of humanitys greatest challenges: if future superhuman artificial intelligence becomes the biggest event in human history, then how can we ensure that it doesnt become the last?
Terribly important ... groundbreaking... extraordinary sagacity and clarity, enabling him to combine his wide-ranging knowledge over an impressively broad spectrum of disciplines - engineering, natural sciences, medicine, social sciences and philosophy - into a comprehensible whole... If this book gets the reception that it deserves, it may turn out the most important alarm bell since Rachel Carson's Silent Spring from 1962, or ever
Valuable. The implications of introducing a second intelligent species onto Earth are far-reaching enough to deserve hard thinking
There is no doubting the force of [Bostroms] arguments the problem is a research challenge worthy of the next generations best mathematical talent. Human civilisation is at stake
His book Superintelligence: Paths, Dangers, Strategies became an improbable bestseller in 2014
Ein Text so nüchtern und cool, so angstfrei und dadurch umso erregender, dass danach das, was bisher vor allem Filme durchgespielt haben, auf einmal höchst plausibel erscheint. A text so sober and cool, so fearless and thus all the more exciting that what has until now mostly been acted through in films, all of a sudden appears most plausible afterwards. (translated from German)
Worth reading.... We need to be super careful with AI. Potentially more dangerous than nukes
A damn hard read
I recommend Superintelligence by Nick Bostrom as an excellent book on this topic
Every intelligent person should read it.
An intriguing mix of analytic philosophy, computer science and cutting-edge science fiction, Nick Bostrom's Superintelligence is required reading for anyone seeking to make sense of the recent surge of interest in artificial intelligence (AI).