När ingen sitter bakom ratten – AI och ansvarsutmaningar i en digitaliserad framtid

Oscar Widén Einarsson, Legal Counsel, Fondia

Oscar Widén Einarsson, Legal Counsel, Fondia

AI har utmanat och förbryllat en hel värld, inte bara genom dess användningsområden men också de konsekvenser innovationerna får på den värld vi lever i. För hur ska man applicera ett rättssystem som är uppbyggt på att kunna utkräva ansvar från personer eller företag när den som utfört handlingen är en robot eller självkörande bil?

Självkörande bilar

I mars 2018 blev en kvinna i Tempe i den amerikanska delstaten Arizona påkörd av en Volvo XC90 som tillhörde Ubers initiativ för självkörande bilar. Olyckan fick tragiskt nog dödlig utgång, och händelsen kommer gå till historien som det första dödsfallet orsakad av en självkörande bil (nivå 3 eller högre på på Society of Automotive Engineers (”SAE”) 5-gradiga automationsskala). Tidigare bilolyckor med dödlig utgång har alltid involverat bilar som befunnit sig på de lägre nivåerna (0-2) av SAEs automationsskala för bilar. 

Vad vi ser i och med denna tragedi är en olycklig milstolpe i ett paradigmskifte där vi kommer gå mer och mer mot automation. Visionen för många av bolagen engagerade i automation av bilar är dock att kraftigt reducera olyckorna, då tekniska problem eller yttre omständigheter endast står för ca 6% av alla bilolyckor medan den stora boven är den mänskliga faktorn på 94%.   

Men vad hände egentligen med Uber? Vem ansågs vara ansvarig för kvinnans död? Var det Volvo vars bil träffade kvinnan? Nvidia vars hårdvara användes som ”hjärna” i bilen? Eller Uber själva, som stod för mjukvaran som processade sensordata och styrde bilen? 

”Fondia har följt med oss hela vägen. Från att vara en liten startup inriktad mot konsumenter till vara ett Series A-bolag med globala investerare – Läs mer här!

Uber träffade en förlikning med kvinnans familj redan samma månad som olyckan skedde. Vilken kompensation kvinnans familj fick har hållits hemligt. Däremot fortsatte den straffrättsliga utredningen mot företaget drygt ett år innan den lades ner av åklagaren i Yavapai County. Åklagaren bedömde att det inte fanns grund för att hålla Uber straffrättsligt ansvariga i fallet, då bolaget haft en designerad förare i bilen vars uppdrag var att se till så att bilen undvek just den typen av situation som hade uppstått. Vidare ansågs offret ha bidragit till olyckan genom att korsa vägen, som hade en hastighetsbegränsning på 45 MPH (72 km/h), i mörker (vilket i sig inte bör påverka bilens förmåga att identifiera henne), långt ifrån närmaste övergångsställe. ”Föraren” av bilen har dock inte sluppit undan, och en utredning pågår fortfarande mot denne.

Men vad kommer hända när vi når nivå 4 och 5 på SAE:s automationsskala, då bilen är mer eller mindre helt autonom från ”föraren”? Det kan verka avlägset, men de flesta större biltillverkare räknar med att leverera bilar med nivå 4 någon gång mellan 2021 och 2030, något beroende på miljö och region. Detta motsvarar en nivå på autonomin hos bilarna som är så hög att det inte räknas med att föraren överhuvudtaget ska behöva intervenera i bilens körning. I dessa fall vore det inte heller rimligt att klandra en s.k. ”förare” vid en eventuell olycka. Vem bär då ansvaret? Är det rimligt att hålla en utvecklare av bilens AI, eller skaparen av dess hårdvara, ansvarig för något som en autonom robot begått p.g.a. något som roboten lärt sig helt själv, avskilt från dess skapare? 

Vad säger lagen?

Inom EU:s olika institutioner diskuteras frågan om reglering av autonoma robotar och AI sedan några år tillbaka, och parlamentet har bland annat lämnat förslag till kommissionen angående hur och vad framtida reglering bör reglera. Parlamentet belyser problematiken som tagits upp ovan, d.v.s. att robotar i framtiden kommer vara autonoma i den mening att de kommer ta egna beslut på grunder som inte rimligen kunnat förutses. Parlamentet lyfter även problematiken med att hålla en autonom robots skapare ansvarig vid olyckor där varken vårdslöshet, uppsåt eller ens ett produktionsfel nödvändigtvis var orsak till händelsen. 

Till dess att lagstiftningen kommit ikapp får vi nöja oss med att försöka kartlägga vad som ser ut att bli ett avtalsrättsligt flipperspel i ansvarsfrågan mellan olika aktörer.

Det kommer förmodligen dröja innan vi börjar behandla maskiner som rättssubjekt, men den nuvarande tekniska nivån ger oss ändå maskiner, mer specifikt bilar i vårt exempel, som inom bara några år är tillräckligt autonoma för att klara sig utan översyn av en mänsklig operatör. Dock är det ännu så att tekniken, som så många gånger tidigare, utvecklas snabbare än lagstiftningen. Till dess att lagstiftningen kommit ikapp får vi nöja oss med att försöka kartlägga vad som ser ut att bli ett avtalsrättsligt flipperspel i ansvarsfrågan mellan olika aktörer. Vi återvänder till ansvarsfrågan utifrån biltillverkarens och datorplattformsutvecklarens perspektiv på vår blogg, medan vi fokuserar på mjukvareutvecklaren i denna artikel. 

Mjukvareutvecklaren – liten möter stor

För att en produkt ska täckas av produktansvarslagen (PAL) måste den skadegörande produkten vara fysisk. Därmed täcks inte programvara som en tillverkare har använt på sin plattform då programvaran snarare räkans som ett intellektuellt alster. En konsument kan alltså inte rikta anspråk direkt mot den som utvecklat mjukvaran. Detta betyder dock inte att mjukvareutvecklaren automatiskt undgår ansvar, utan snarare att biltillverkaren i sin tur kan kräva ansvar från mjukvarutvecklaren (s.k. ”regressansvar”).

Det innebär att ansvarsklausulerna i avtalen mellan mjukvareutvecklare och biltillverkare blir mycket viktiga. Det är inte sällan så att den här typen av avtal innebär en obalans i fråga om förhandlingssituation och makt, då biltillverkare ofta är stora multinationella bolag medan mjukvareutvecklare finns i alla dess former och storlekar.  Frågan är hur en mjukvareutvecklare ska hantera risken för stora regressanspråk från en stark kund eller samarbetspartner i form av en biltillverkare.

Det finns en rad olika sätt för mjukvareutvecklaren att kontrollera och arbeta med risk. Först och främst bör mjukvareutvecklaren reglera sin risk genom att i avtal begränsa sitt ansvar på olika sätt, exempelvis genom så kallade ”hold harmless”- eller skadelösklausuler, genomtänkta och noggranna specificeringar av vad utvecklaren garanterar, klausuler som etablerar begränsningar i skadeståndsskyldigheten, eller dylikt. Om man dock tar den inte sällan skeva maktbalansen i dessa affärsrelationer i beaktning, så kan det möjligen vara lättare sagt än gjort att få in dessa klausuler med en leverantörsvänlig twist i avtalen. I dessa fall är det oerhört viktigt att åtminstone begränsa eventuella inomkontraktuella skadestånd till ett överkomligt tak. Lika viktigt är det att teckna en försäkring som passar bolagets verksamhet och riskprofil. 

I väntan på lagstiftning som tar upp kampen med robotar blir arbetet med riskmitigering allt viktigare. Detta gäller avtalsskrivningarna likväl som försäkringen och valet av affärsmodell. Att ha rätt avtal är kritiskt för att arbeta med risk, men bör samtidigt kompletteras med sunda affärsbeslut och affärsmodeller, försäkringar och löpande riskuppföljning. 

“Ingen vill höra att deras affärsidé är omöjlig” – Läs mer om affärsjuristbyråns Fondias startup-program Runway  

Fondia kommer i en bloggserie på sin hemsida dyka djupare i ämnet och utforska möjligheter och fallgropar i en värld allt mer präglad av AI.

Läs fler artiklar
LÄS MER