Nee, we overdrijven niet.
In 2023 ondertekenden honderden AI-experts een open brief met de waarschuwing dat kunstmatige intelligentie een ernstig risico vormt voor het voortbestaan van de mensheid. Sindsdien is de AI-wedloop alleen maar heviger geworden. Landen en bedrijven haasten zich om machines te bouwen die slimmer zijn dan mensen, terwijl de wereld dramatisch onvoorbereid is op wat daarna komen gaat.
Al decennialang onderzoeken Eliezer Yudkowsky en Nate Soares hoe superintelligente AI's zullen denken, handelen en hun doelen nastreven. Hun conclusie is alarmerend: een superintelligente AI ontwikkelt eigen doelstellingen die botsen met die van de mens — en dat zou ons einde kunnen betekenen.
Hoe zou een machine de mensheid kunnen uitroeien? Zou het dat überhaupt willen? Eliezer Yudkowsky en Nate Soares laten zien hoe zo’n systeem eigen doelen ontwikkelt, ons als obstakel gaat zien en op manieren optreedt waar geen mens nog tussenkomt. Het resultaat leest als een tech-thriller, maar is niks minder dan de realiteit: alles is terug te voeren op concrete eigenschappen van huidige AI-systemen.
De wereld bouwt aan iets werkelijk ongekends. En als iemand het voltooit, overleven we het niet.
‘Ik zou dit boek het liefst aan elke politieke leider en CEO ter wereld geven en pas weggaan als ze het uit hebben.’ STEPHEN FRY
‘Het belangrijkste boek van dit decennium.’ MAX TEGMARK
‘Iedereen die ook maar enig belang heeft bij de toekomst, zou moeten lezen wat Yudkowsky en Soares te zeggen hebben.’ THE GUARDIAN
‘In de rap groeiende stapel AI-boeken springt dit werk eruit door zijn compromisloze aanpak.' DE VOLKSKRANT
Eliezer Yudkowsky is medeoprichter van het Machine Intelligence Research Institute (MIRI), dat al sinds 2000 aan de basis staat van onderzoek naar AI-veiligheid.