Stephen Hawking halálakor egy utolsó figyelmeztetést hagyott az emberiség számára, hangsúlyozva a mesterséges intelligencia potenciális veszélyeit és fenyegetéseit.
Az elismert asztrofizikus 2018-ban hunyt el, de életének utolsó időszakában figyelmeztetett az emberiség lehetséges bukására és arra, hogy óvakodjunk a mesterséges intelligencia által jelentett fenyegetésektől, beleértve az idegen civilizációkkal való kommunikáció kísérletezését.
Hawking már jóval korábban, még mielőtt a mesterséges intelligencia fogalma széles körben elterjedt volna, éleslátó módon próbálta felhívni a figyelmet arra, hogy milyen következményekkel járhat a mesterséges intelligencia térnyerése.
Egy 2014-es BBC-interjúban Hawking megjegyezte: „A teljes mesterséges intelligencia kifejlesztése az emberi faj végét jelentheti.”
Bár a technológiai fejlődés még csak most kezdte kibontakozni a területen, Hawking felismerte annak potenciálját és veszélyeit, különösen abban az esetben, ha az emberi intelligenciát meghaladó szintre fejlődik.
Elmondta: „Saját magát továbbfejlesztené, és egyre gyorsabb tempóban kezdené újra tervezni magát.”
Hawking szerint azok az emberek, akiket a lassú biológiai evolúció korlátoz, nem tudnának versenyezni egy ilyen fejlődési folyamattal, és kiszorulnának.
Az asztrofizikusnak nem volt hiány éles figyelmeztetésekből a mesterséges intelligencia veszélyeivel kapcsolatban.
2015-ben Hawking az ENSZ-hez intézett nyílt levél egyik aláírója volt, amely a mesterséges intelligencia ellenőrizetlen fejlesztésének veszélyeire hívta fel a figyelmet.
És 2017-ben, halála előtt egy évvel a Wired magazinnak adott interjúban még határozottabban kifejezte aggodalmát: „Attól tartok, hogy a mesterséges intelligencia teljesen felváltja az embert.”
Halála után megjelent könyvében, a „Brief Answers to the Big Questions”-ben, részletesebben kifejtette az aggodalmait.
„Intelligenciabomba robbanhat, melynek eredményeképpen olyan gépek jöhetnek létre, melyek intelligenciája messze meghaladja a miénket, ahogyan a miénk a csigákét” – írta.
És hozzátette: „Kísértés lehet a magas intelligenciájú gépek gondolatait csak sci-fiként kezelni, de ez hiba lenne – és potenciálisan a valaha volt legnagyobb hibánk lehet.”