Sök

KRÖNIKA

ARASH GILAN: Atombombens arv – och hur det lär oss hantera AI

AI

Arash Gilan är vd och medgrundare av marknadsföringsbyrån Viva Media. Foto: Press/iStock

Breakit

Breakit

Just nu står vi mitt i ett stort paradigmskifte: artificiell intelligens. Googles vd jämför det med förmågan att kontrollera eld och elektricitet. Andra jämför AI:s potential med kärnvapen. Det är att dra det väldigt långt väldigt snabbt, men samtidigt kan atombombens uppkomst lära oss mycket om hur vi bör ta oss an AI.

Det skriver Arash Gilan i en krönika.

Under första halvan av 1900-talet skedde en vild kapplöpning för att uppfinna en teknik som skulle förändra människans tillvaro i grunden, kärnvapnet. Med uppkomsten av kärnvapen kom tillgången till en destruktiv förmåga så kraftfull att internationella relationer inte har varit desamma sedan dess. 

Skillnaderna mellan kärnvapen och AI är så klart många, men det finns också likheter dem emellan som är värda att beakta. Dagens AI-kapplöpning skapar till exempel oro och frågetecken på samma nivå som när atombomben uppfanns.

Och genom de likheterna har vi möjlighet att lära oss av historien. 

Atombomben byggde på neutrala vetenskapliga upptäckter

För att förstå atombombens historia och de etiska och politiska frågor den väckte kan man läsa Richard Rhodes utmärkta bok The making of the atomic bomb.

Rhodes beskriver hur allt har sin upprinnelse i upptäckten av atomkärnan, som var en stor vetenskaplig revolution i sig. Och med den grundläggande förståelsen av atomer kom även insikten om hur man skulle kunna påverka kärnan i vissa atomer för att skapa kraftfulla, fysiska reaktioner – atomklyvning.

Även om insikten om kraften i atomklyvning öppnade upp för många olikaanvändningsområden, dikterade den fortfarande inte vad kraften skulle användas till, gott eller ont. Potentialen var bred.

Upptäckten ledde både till energiutvinning i kärnkraftverk och möjligheten att skapa massförstöreslevapen baserade på tekniken. Och när den insikten spred sig påbörjades kapplöpningen för att ta fram den första atombomben.  

USA:s massiva insats för att vara först med att utveckla atombomben är känd som det mytomspunna Manhattanprojektet, och en av de mest kända personer som låg bakom projektet var fysikern Robert Oppenheimer

Efter att atombomberna släpptes över Hiroshima och Nagasaki i augusti 1945 upplevde det amerikanska folket en blandning av stolthet, lättnad och rädsla. Först glada över att bomberna hade avslutat kriget, men sedan skräckslagna för den fruktansvärda kraften som de hade släppt lös.

Hotet om förstörelse hängde över allas medvetanden, och en paranoid rädsla höll hela världens medborgare på helspänn.Människan har nu så många massförstörelsevapen att vi faktiskt kan ödelägga hela vår värld flera gånger om, och det har påverkat oss på ett omfattande sätt allt sedan den dagen. 

Potentialen i AI-revolutionen

Precis som i fallet med kärnklyvning är AI nu en ny teknik som bär med sig en stor potential.

Och det är viktigt att ha med sig att AI precis som atombomben bygger på grundläggande vetenskapliga principer och forskning som jag noggrant gått igenom i denna krönika. Medan kärnvapen baseras på atomfysik är AI baserad på datavetenskap och maskininlärning.

Och precis som vetenskapen om atomkärnan och atomklyvningar innebär kunskapen om data och maskininlärning inte något etiskt dilemma i sig, utan hur vi väljer att använda kunskapen.

AI-hotet är svårgreppbart

Stämningen kring AI idag verkar på många håll vara lika uppjagad som när atombomben kom. Lyssnar man på olika massmediala alarmister både i Sverige och utomlands bör vi på grund av AI frukta utrotandet av människosläktet. Jag tror att den sortens retorik är ett stort misstag, men tyvärr inget unikt om man ser till historien om teknik.

En av de som just nu skriker “domedag” högst är forskaren Max Tegmark. Han skriver i Time om hur han känner sig som i Netflix katastroffilm Don’t look up, där en asteroid hotar jorden utan att något utom enstaka forskare tar det på allvar. Tegmark fruktar att en tillräckligt smart AI kommer att vidareutveckla sig själv, skapa egna mål och i förlängningen medvetet eller genom försummelse utrota mänskligheten. Men det första som skaver i Tegmarks jämförelse är att Don’t look up är en allegori för klimathotet, ett problem som vi har god evidens för. AI-hotat är i kontrast just nu inget annat än fiktion a la Hollywood.

Till skillnad från de påtagliga hoten från kärnvapen och global uppvärmning, är det svårt för Tegmark och andra AI-motståndarna att förklara hur AI konkret ska ta över världen. Ett av de galnare exempel som Tegmark ger är att AI skulle kunna döda oss genom att ta bort allt syre i atmosfären. Hur skulle det gå till i en handvändning? Det är ett vilt påstående som kräver sin förklaring.

Visst skulle potentiellt sett en AI som används för att övervaka en viktig samhällsfunktion kunna ställa till med skada, men steget innan vi människor börjar lämna över ansvaret för centrala samhällsuppgifter till AI är väldigt långt, om ens möjligt.

Naturliga spärrar skyddar oss

För den bästa fail safe som vi har är människans självbevarelsedrift. Det kan vi se i fallet med atombomben. Världens kärnvapenstater har haft många ursäkter att använda nukleära bomber sedan andra världskriget, men alla inser konsekvenserna. Ingen vill förinta hela världen, inte ens Ryssland eller Kina. Ser vi till Kina kretsar hela deras tankesätt kring att ha kontroll. De kommer inte vilja lämna över sin makt till en AI som de inte kan kontrollera.

Därför kan vi observera likheterna mellan samtalen kring atombomben då och AI nu, men med det sagt ska vi inte blanda ihop de båda fenomenen för mycket. Jag tror att det är en bättre jämförelse att se till tekniska revolutioner som tåget, cykeln eller flygplanet. Alla tre gav upphov till irrationella fobier när de kom. Tåget befarades till exempel skada hjärnan eftersom det gick snabbare än 30 km/h.

Dessa obefogade rädslor visar hur lätt det är för oss vanemänniskor att övervinnas av fruktan inför det nya – om och om igen.

Vi ska inte låta rädsla styra oss

Jag försöker alltid vara nyanserad i det jag skriver, och risker behöver alltid vara en del av en balanserad dialog. Men riktiga risker behöver skiljas från de som är påhittade.

En sak som Tegmark och många alarmistiska debattörer gör idag som är farligt på riktigt är att skrämma folk så att de håller sig undan AI. Det som sker då är att de halkar efter i teknikutvecklingen och blir omsprungna på arbetsmarknaden. Ironin är att alarmisterna, samtidigt som de varnar, ser till att själva ligga i framkant. 

Så låt er inte skrämmas. Även jag ser riskerna, men de är långt borta, det finns sätt att undvika dem och de handlar inte om en kommande domedag.

ARASH GILAN är vd och medgrundare av marknadsföringsbyrån Viva Media. Han driver även VD-podden och skrivit flera böcker inom tech och digitalisering. Samt skriver återkommande om AI.

Läs mer