Borde en AI vilja döda alla människor?


Argumentet här är att en AI, om den bara vill göra saker, kommer att ha ett incitament att försöka ta över hela världen och ta över all materia för att kunna uppnå alla mål den har. Detta gäller enbart en AI utan några specifika mål som vi människor har (vilket för många inkluderar att inte vilja styra över andra och att låta ens vänner ha en del av världen att bestämma över). Det man tänker sig är att det här är ett instrumentellt rationellt mål för en intelligent varelse, som att man försöker komma fram till vad homo economicus vill göra om man inte vet om vilken sorts varelse denne är – Vulcan, Dementor, Drow eller haj – bara denne tänker rationellt på vad dennes mål är.

+ There are no comments

Add yours