I min anmeldelse af Nick Bostrøms nye bog om Superintelligence – Paths, Dangers & Strategies bragt i scenario og blogget i Børsen, hedder det blandt andet:
Men i det mindste bør vi følge Bostrøms råd om at arbejde med den slags virkelige eksistentielle muligheder og trusler for menneskene i stedet for at bruge for meget opmærksomhed på indbildte trusler som knaphed på ressourcer. …og klimaændringer… og vandmangel….og pesticider…og grønne løvfrøer…osv.
Det er forbløffende og farligt, at politikernes opmærksomhed lader sig styre af hvilke typer problemer, der har lettest ved at komme i medierne og ikke af en vurdering af om problemerne er væsentlige eller ligefrem eksistentielle: problemer, som vi ikke på menneskehedens nuværende udviklingsniveau er i stand til at forebygge eller afhjælpe.
Omkring år 1900 kunne man med datidens modeller med matematisk sikkerhed beregne, at New York i løbet af 10 år ville blive dækket med hestemøg op til 10’ende sals højde. Panikken begyndte at brede sig, men så kom bilen.
Alle de problemer af material art vi har i dag, vi blive løst på samme selvfølgelige måde med ny og snild teknologi. Til gengæld bliver der skabt nye problemer, som vi gør klogt i at tænke over inden de bliver uoverskuelige.
Accelererende kunstig intelligens på superniveau, udgør en suveræn mulighed for at skabe overflod til alle mennesker, men er samtidig en trussel mod menneskearten Homo sapiens, som vi kender den. Læs Bostrøms bog og tænk med.
,