En ren kontrollfråga

Vi har ständigt funnit nya uppgifter för den mänskliga arbetskraften i ungefär samma takt som de gamla försvunnit (om än med vissa konjunkturvariationer). Idag går dock utvecklingen snabbare än någonsin, och man kan undra vad som väntar då nya framsteg inom artificiell intelligens (AI) gör att inte bara manuellt arbete utan även allt fler och allt mer avancerade intellektuella sysslor automatiseras. Det ligger något i grunden gott i att vi befrias från arbetets vedermödor för att istället fullt ut kunna ägna oss åt konst, kultur, idrott, kärlek eller vad vi nu vill göra, men är det verkligen möjligt att få till stånd en övergång till en sådan utopi utan att vi på vägen drabbas av social utslagning av monstruösa proportioner? Detta är några av de frågor som de åtta skribenterna i nämnda temablock diskuterade med utgångspunkt från MIT-ekonomerna Erik Brynjolfssons och Andrew McAfees viktiga och uppmärksammade bok The Second Machine Age.
Det finns emellertid ett långsiktigare och ännu mer radikalt perspektiv på AI-utvecklingen, där långt större värden står på spel än bara en turbulent arbetsmarknad. Fysikern Stephen Hawking och tre medförfattare skrev i The Guardian tidigare i år att ”medan konsekvenserna av AI på kort sikt beror på vem som har kontrollen över den, så beror de på lång sikt på huruvida den överhuvudtaget kan kontrolleras”, och de varnade för ett slentrianmässigt avfärdande av övermänsklig maskinintelligens såsom science fiction, vilket skulle kunna bli ”historiens värsta misstag”.
Redan den moderna datalogins fader Alan Turing förutspådde i en uppsats från 1951 hur maskinerna så småningom skulle nå en sådan intelligensnivå och sedan snabbt gripa herraväldet över vår planet. Sedan dess har området plågats av en rad överoptimistiska och i efterhand lite genanta prediktioner om hur snabbt det stora genombrottet skulle komma. Någon AI med allmänintelligens på mänsklig eller högre nivå har vi ännu inte sett röken av. Däremot har AI-forskningen uppvisat desto mer av imponerande framgångar på mer specialiserade områden. Datorerna besegrar numera sina vassaste mänskliga motståndare i såväl schack som frågespelet Jeopardy, och Google har med sina förarlösa bilars prickfria körning i stads- och landsvägstrafik nått resultat som för bara tio år sedan ansågs utopiska. Exemplen kan mångfaldigas, men vad som gör att vi lätt underskattar hur mycket AI-området har åstadkommit är det som AI-pionjären John McCarthy sammanfattat med att ”så snart något fungerar så räknas det inte längre som AI”.
Vad kan vi då vänta oss vad gäller det utlovade genombrottet? Det finns starka teoretiska argument för att en AI som överträffar den mänskliga allmänintelligensen till slut kan bli verklighet, och att utvecklingen därifrån kan komma att eskalera mycket snabbt, mot en nivå av superintelligens som lämnar alla mänskliga kognitiva förmågor långt bakom sig. De resonemang som gör det sistnämnda troligt är varianter på följande återkopplingsmekanism: den dag en AI har högre allmänintelligens än vi människor kommer den specifikt också att vara bättre på att bygga AI, och kan därför bygga en ännu bättre AI, och så vidare i en eskalerande spiral mot allt högre intelligensnivåer, i det som ibland kallas Singulariteten.
Få, om ens någon, har tänkt djupare och mer systematiskt kring dessa frågor än den svenskfödde Oxfordfilosofen Nick Bostrom. I sin banbrytande nya bok Superintelligence betonar han vilket avgörande vägskäl i mänsklighetens historia ett AI-genombrott kan bli. Å ena sidan har uppkomsten av en superintelligens potential att lösa alla våra problem och ge oss allt vi önskar. Å andra sidan kan ett genombrott bli extremt farligt, och i värsta fall leda till slutet för mänskligheten. Ett centralt budskap i boken är vikten av att vi tänker igenom saken mycket noggrant och vidtar lämpliga åtgärder innan genombrottet är över oss, ty när det väl händer kan det vara för sent att göra något åt saken.
Då vi talar om AI:s farlighet är det lätt att associera till drönare och annan militär teknologi, men Bostrom framhåller att även en AI med till synes harmlösa drivkrafter kan leda till katastrof. Han exemplifierar med en maskin med uppgift att producera gem. Om en sådan maskin blir fröet till en intelligensexplosion, och om vi inte mycket noggrant har planerat för detta, kan det mycket väl resultera i att all materia i hela solsystemet, inklusive vi själva, omvandlas till ett groteskt lager av gem.
Några pålitliga tidtabeller för när ett AI-genombrott är att vänta går knappast att ge i dagsläget – det är till och med svårt att säga vilket av årtalen 2030 eller 2200 som bör anses mer realistiskt. Mer allmänt sett är det ytterst vanskligt att göra bestämda förutsägelser om hur ett genombrott kommer att gestalta sig. Bostrom uppträder med föredömlig epistemisk ödmjukhet då han utsätter även till synes självklara argument – såväl sina egna som andras – för noggrann kritisk granskning, och det finns knappt en prediktion eller en rekommendation i boken som inte kompletteras med en reservation av typen ”å andra sidan kan det tänkas att…”. I förordet framhåller Bostrom att många av hans poänger säkert kommer att visa sig direkt felaktiga (även om han inte kan säga vilka) och att boken därför sannolikt är allvarligt vilseledande. Att det inte rör sig om någon falsk blygsamhet klargör han sedan omedelbart, då han skriver att han finner ”alla alternativa synsätt som hittills har presenterats i litteraturen vara avsevärt sämre, inklusive default-positionen att vi tills vidare lugnt och utan risk kan ignorera utsikten om en superintelligens”.
Områdets svårighetsgrad gör att varje detaljerad beskrivning av vad som kommer att hända är dömd att vara felaktig. Ändå kan det av pedagogiska skäl ibland vara nödvändigt att ge sådana, vilket Bostrom gör vid några tillfällen, exempelvis för att visa hur en superintelligent AI kan tänkas överlista en naiv ”det är ingen fara, vi kan ju alltid dra ur sladden”-strategi från vår sida. De flesta av hans resonemang är dock på en relativt hög abstraktionsnivå. Trots det, och tack vare hans eminenta klartänkthet, blir inte boken svårläst.
Centralt i Bostroms teoribygge är det kapitel där han argumenterar för två teser vilka han benämner ortogonalitetstesen och tesen om instrumentell konvergens. Här måste vi skilja mellan en AI:s mål och dess medel: å ena sidan dess ultimata drivkraft, å andra sidan de instrumentella drivkrafter som finns till som redskap för att stödja den ultimata. Ortogonalitetstesen säger att superintelligens är förenligt med snart sagt vilken ultimat drivkraft som helst, alltifrån gemtillverkning till maximering av den totala hedonistiska nivån (välbefinnande minus lidande) hos universums alla medvetna varelser. Tesen om instrumentell konvergens handlar om ett antal instrumentella drivkrafter som kan väntas uppkomma hos varje tillräckligt intelligent varelse eller AI, nästan oavsett dess ultimata drivkraft. Hit hör till exempel viljan att inte bli avstängd, ty en avstängd maskin har ingen möjlighet att fortsätta verka för uppfyllande av sitt ultimata mål. Av liknande skäl kan en AI väntas vilja förbättra sin egen intelligens, kopiera över sin programkod till andra maskiner, och tillskansa sig så mycket hårdvara och andra materiella resurser som möjligt, samt bevara sin ultimata drivkraft.
Populärt
De sagolika systrarna Mitford
Bland de omtalade systrarna Mitford fanns både skickliga författare, fascistsympatisörer, en hertiginna och en kommunist, skriver Moa Ekbom.
Det problem vi måste lösa, hävdar Bostrom, är det han kallar the control problem: hur gör vi intelligensexplosionen till en kontrollerad detonation – en som resulterar i ett önskat och för mänskligheten gynnsamt utfall? För att göra det behöver vi förse AI:n med rätt slags ultimata drivkrafter (samt göra det innan den uppnått superintelligensnivå, ty därefter kommer den knappast att tillåta en sådan modifiering). Den uppgiften kan låta harmlös, men visar sig vid närmare skärskådan vara extremt svår, och minsta misstag kan leda till katastrof. En AI som försetts med den ultimata drivkraften att enbart göra sådant som gör oss glada kan skrida till verket genom att koppla om våra hjärnor på sådant sätt att vi går omkring och är glada oavsett dess vidare förehavanden.
Svårighet staplas på svårighet, och vissa läsare kommer till slut att övermannas av hopplöshet inför problemens komplexitet. Bostrom arbetar dock oförtrutet vidare och vägrar att falla ned i en sådan uppgivenhet, driven som han är av en övertygelse om att han arbetar med ett av de viktigaste problem mänskligheten någonsin har ställts inför, och att vi måste lösa det. Men han kan inte göra det ensam. Av de många tusen forskare som arbetar med AI världen över är det idag dessvärre bara några få som på allvar intresserar sig för the control problem. Bostrom är angelägen om att ändra på det förhållandet, och talar om ”en forskningsutmaning värdig några av nästa generations största matematiska talanger”.
Bostroms bok är inte den enda i senare års bokutgivning som behandlar intelligensexplosioner och besläktade radikala AI-scenarier. Andra böcker som gör det är exempelvis nationalekonomen James Millers Singularity Rising och dokumentärfilmaren James Barrats Our Final Invention. Speciellt den senare är skriven på ett populärare och mindre tekniskt språk än Superintelligence. Detta kompenseras av Bostroms extraordinära klarhet och skarpsinne, som låter honom kombinera sina vittförgrenade kunskaper inom ett imponerande brett spektrum av discipliner – teknik, naturvetenskap, medicin, samhällsvetenskap och filosofi – till en begriplig helhet. För den som tänker sig att bara läsa en av dessa böcker tvekar jag inte att rekommendera Superintelligence. Om denna bok får det mottagande och den spridning som den förtjänar kan den komma att bli den viktigaste varningsklocka som ljudit sedan Rachel Carsons Tyst vår på 1960-talet, eller kanske någonsin.