AI-forskningen söker sig nya vägar
Den 6 maj 2010 ägde det hittills största och snabbaste kursraset rum på New York- och Nasdaqbörserna. Klockan 14.45 var raset nästan 10 procent. 500 miljarder dollar, mer än Sveriges samlade BNP, gick upp i rök på ett par minuter. Men innan några mäklare hade hunnit kasta sig ut genom fönstren, började kurserna att återhämta sig. De direkta orsakerna till ”The Flash Crash” stod heller inte att finna hos människor, utan hos datorer.
Den statliga utredning som tillsattes med anledning av kursraset kom fram till att den skyldige var en stor aktör, vars algoritmstyrda program hade handlat med en aktie under 20 minuter. Det räckte för att trigga igång andra algoritmer i vad som kom att bli en kedjereaktion av alltmer bisarra transaktioner, där Accenture-aktier såldes för en penny, medan Apple-aktier gick för 100 000 dollar styck (vilket dock hann annulleras).
Under de senaste decennierna har finansmarknaderna i allt högre grad datoriserats. I senaste numret av tidskriften Wired beskriver Harold Bradley hur han som chef på ett medelstort investeringsbolag i Kansas ägnade flera år av 1990-talet åt att skapa så effektiva datorprogram som möjligt för aktiehandel.
Bradley ville dock gå längre än till att kombinera de faktorer som han erfarenhetsmässigt uppfattade som styrande för en akties utveckling. I bland andra Jim Simons och David E. Shaws efterföljd var hans mål att skapa ett system som kunde analysera aktierörelser på ett fundamentalt annorlunda – och smartare – sätt än vad människor är kapabla till. Därför gav han i uppgift åt AI- (artificiell intelligens-) specialister och finansanalytiker att utveckla ett algoritmiskt system, uppbyggt kring de sju viktigaste variablerna för förutsägelser av en aktieportföljs utveckling.
Detta program kördes sedan mot den historiska utvecklingen hos tio aktier som slumpmässigt valts ut bland de då mest lukrativa. Därefter gjordes viktningar mellan variablerna, och dessa viktningar finkalibrerades sedan genom ytterligare körningar mot nya urval av aktier. På basis av de tio viktningar som visat sig mest effektiva destillerades sedan 100 nya viktningar fram och kördes mot nya aktier, så att de tio mest optimala riktningarna kunde urskiljas, vilka fick utgöra grunden för 100 nya viktningar, av vilka ett nytt urval gjordes, och så vidare.
Under 00-talet har en rad liknande algoritmbaserade program tagit över allt större sektorer av finansmarknaden. Algoritmerna är typiska för hur artificiell intelligens används idag. Inte för att efterlikna mänskligt tänkande, utan tvärtom för att närma sig marknaden från ett maskinellt perspektiv. Ungefär på samma sätt som man med algoritmers hjälp tar sig an vädersystem: genom att skapa jättelika, invecklade mönster på basis av oöverskådliga mängder data, vars fluktuationer blixtsnabbt analyseras – där en nanosekunds fördröjning på finansmarknaden kan utgöra skillnaden mellan köp och sälj.
För den moderna AI-forskningens del tycks därmed cirkeln ha slutits. Från att i datorpionjären Alan Turings fall ha utvecklats i syfte att knäcka chiffer under andra världskriget, kom AI-forskningen under 1960- och 70-talen att användas i hopp om att skapa artificiella mänskliga hjärnor. Därefter har man från 1980-talet och framåt mer och mer koncentrerat sig på att optimera olika avancerade mekaniska och tekniska processer, inte nödvändigtvis modellerade efter den mänskliga intelligensen. Detta har i sin tur revolutionerat utvecklingen av sökmotorer, bilar, kreditkort och medicinsk forskning.
Kanske kan denna process tolkas som att AIforskningen har retirerat från den sorts mekanistiska och instrumentella syn på människan som ofta tycks ha varit en förutsättning för visionerna om att på konstgjord väg simulera fram mänskligt beteende och tänkande. Paradoxalt nog har det varit under historiska perioder då den mänskliga individen har stått i centrum som intresset för artificiellt konstruerade människor har skjutit i höjden.
Inte för inte ägde de första experimenten med mänskliga robotar rum under renässansen, och typiskt nog utfördes de av en av humanismens kardinalgestalter, Leonardo da Vinci. Men spekulationerna om att på artificiell väg konstruera människor tog inte ordentlig fart förrän i och med den moderna, borgerliga individens födelse. Under upplysningen framställde La Mettrie i Descartes efterföljd människan som en maskin; Voltaire liknade i Filosofiska brev själen vid en klocka; och Jacquet-Droz skapade konkreta mänskliga automater.
Orsaken var naturligtvis att en naturvetenskapligt mekanisk människobild hade ersatt en essentialistiskt religiös. Därmed föddes också på allvar det intresse för intelligens som detta nummer av Axess Magasin är en utlöpare av. Men det betydde alltså inte att religionen var överspelad. Som korrektiv till en hårdraget empirisk verklighetsuppfattning skulle religionen i existentiella och vetenskapliga sammanhang visa sig ha framtiden för sig. Inte minst i så måtto att dess vördnad för det specifikt mänskliga var betydligt mer seglivad än man kunde tro på 1770-talet och 1970-talen.