Krönika: "Vi saknar fortfarande en teoretisk förklaring till hur AI egentligen funkar."
Om vi hade lika lite förståelse för hur kärnkraftverk fungerar, som vi har för hur AI fungerar skulle ett samtal på Forsmark kunna låta ungefär så här: "vi vet inte varför reaktorn blir varm, men vi vet att när vi blandar de här metallerna så blir det så”. Problemet med det då? Om vi inte förstår hur något fungerar kan vi heller inte förutse under vilka omständigheter det inte kommer att fungera. "Man behöver inte vara luddit för att förstå att AI inte är moget uppgiften att fatta beslut som kan ha allvarliga konsekvenser", skriver Karim Jebari, filosof och framtidsforskare i den här krönikan om den bräckliga och oförutsägbara AI:n.
När amerikanska högsta domstolen fick uppgiften att ta ställning till hur pornografi skulle regleras uppstod ett problem. Det var inte så lätt att definiera, trots att, som domaren Potter Stewart sa: “jag vet vad det är när jag ser det”. Detta fenomen, att vi vet vad något är, men har svårt att beskriva det, är väldigt vanligt.
Vi kan till exempel alla lätt se skillnaden mellan en hund och en katt. Men om du har försökt beskriva skillnaden mellan en hund och en katt för någon som aldrig sett hundar och katter så pass väl att personen kan identifiera hundar och katter på egen hand kan du föreställa dig hur svårt det är att programmera en dator att göra samma sak.
Forskare brottades med det här problemet i decennier. Det fanns en teknik som verkade lovande – “artificiella neurala nät” – men som krävde alldeles för mycket beräkningskapacitet. Tanken bakom tekniken var enkel: istället för att definiera katters och hundars egenskaper med ett programmeringsspråk visade man bara massa bilder med korrekta etiketter på katter och hundar för datorn – så kunde datorn lära sig själv.
För ungefär 10 år sedan blev hårdvara så bra och antalet bilder på katter och hundar med korrekta etiketter så många att den här tekniken kunde börja användas kommersiellt. Det är det vi idag kallar “AI”: ett program som “skriver sig självt” utifrån data.
AI är alltså väldigt bra på att göra saker som var svåra att programmera för hand, som till exempel att identifiera bilder och video eller tolka mänskligt tal. Men det som gör AI till ett så kraftfullt verktyg är också det som kan vara problematiskt. Något som vi läst om gång på gång i tidningen. Iphones vars ansiktsigenkänningsalgoritm (en AI) inte kan känna igen svarta användare. En Teslabil som tolkade två vita prickar på motorvägen som en signal att byta fil. Röststyrda högtalare som inte förstår skotsk dialekt.
När vi utvärderar hur säker en teknologi är, alltså hur säkra vi kan vara på att en viss maskin gör det den ska, brukar man ta hänsyn till bland annat följande: Hur transparent är systemet, alltså hur lätt är det att veta varför systemet gör som det gör i en viss situation på ett sätt som gör det möjligt att återskapa systemets beteende? När ett system brister, brister det på ett gradvist och (för människor) intuitivt sätt? Hur väl förstår vi den underliggande teorin som systemet bygger på? Hur många delar av ett system är “svaga länkar”, alltså sådana som innebär att en bristfällig del får hela systemet att krascha?
När man var tvungen att programmera exakt vad en maskin skulle göra, steg för steg, hade man någon slags koll på vad den skulle göra. När datorn gjorde fel, kunde man titta på koden och försöka hitta felet. Problemet med modern AI är att vi inte kan göra samma sak. Eftersom AI “skriver” sin egen kod på sitt eget sätt är den koden i ett format som människor inte kan läsa. Det enda sättet att veta om en AI funkar som den ska är att testa den. Men det är inte lätt att testa den i alla typer av situationer där den ska leverera när det är en färdig produkt.
Många andra maskiner har en ganska stor robusthet över olika typer av situationer. En bil som kan köra över asfalt som är 30 grader varm kan också köra i asfalt som är 31 grader varm. Det är också intuitivt för oss människor när en bil kommer att fungera och när den inte kommer göra det. Vi förstår att en bil inte kan starta om temperaturen är för kall. Vi förstår också att en bil lätt kan bli överhettad om den blir för varm. Men AI är dels extremt bräcklig, och små variationer i situationen kan få den att helt misslyckas med sin uppgift. Ett exempel på det är AlphaZero, schackdatorn som på några få dagar tränades till övermänsklig förmåga. Men det räcker med en liten regeländring, som till exempel att ge möjlighet för löpare att röra sig som en drottning för att få AlphaZero att vara helt oförmögen att spela schack.
Dessutom saknar vi fortfarande en teoretisk förklaring till hur AI egentligen funkar. Om man frågar folk inom fältet varför en viss typ av AI-arkitektur är bättre på att lära sig att se mönster i musik och en annan är bättre på bilder, så får man bara förbryllade blickar tillbaka. Tänk om vi hade lika lite förståelse för hur kärnkraftverk funkade, om ingenjörerna på Forsmark sa “nae, vi vet inte varför reaktorn blir varm, men vi vet att när vi blandar de här metallerna så blir det så”. Det som är problematiskt med att inte förstå hur något funkar är att vi inte kan förutse under vilka omständigheter det inte kommer att funka.
Till slut, ju mer komplexa uppgifter en AI har, desto större är sannolikheten att den begår ett fatalt misstag. En självkörande bil måste till exempel korrekt kunna identifiera människor, även när de är svarta, korta, utklädda till clowner, åker skateboard eller bär en fruktkorg på huvudet. Ju fler typer av objekt en bil måste kunna identifiera, desto fler möjligheter blir det att den misslyckas med något. Inom säkerhet för komplexa system talar man om begreppet “single point of failure”, alltså den del av ett system som är kritiskt för att det ska fungera korrekt. Ofta vill man undvika att bygga system som har en sådan systemkritisk del. Men en AI med så komplex uppgift som att orientera sig i hög hastighet i en kaotisk miljö kommer oundvikligen att ha ett flertal “single points of failure” – och givet problemen med transparens ovan är det omöjligt att identifiera dem innan systemet fallerat.
”I stället för att se AI som ett verktyg vars syfte är att ersätta mänskligt arbete, bör vi se AI som ett verktyg för att förbättra varor och tjänster. Så länge AI lider av ovannämnda svagheter kommer det att krävas mer, inte mindre arbetskraft.”
Så länge det här handlar om enskilda fall och små olägenheter kan man vara lugn. Men bland teknikentusiaster och IT-företag finnas en närmast religiös attityd att AI måste finnas överallt, och implementeras så fort som möjligt. Men man behöver inte vara luddit för att förstå att AI ännu inte är moget uppgiften att fatta beslut som kan ha stora konsekvenser. Det här är det grundläggande problemet med modern AI. Och tyvärr är det ett problem som hänger ihop med hur AI funkar, vilket gör det till en utmaning som vi inte kan vifta bort. Vi behöver mer grundforskning om AI, och dämpa våra förväntningar på att AI kommer att kunna ta över arbetsuppgifter i komplexa miljöer där misstag kan få allvarliga konsekvenser. I stället för att se AI som ett verktyg vars syfte är att ersätta mänskligt arbete, bör vi se AI som ett verktyg för att förbättra varor och tjänster. Så länge AI lider av ovannämnda svagheter kommer det att krävas mer, inte mindre arbetskraft.
Denna filosofi, att AI-relaterade verksamheter är arbetskraftsintensiva, är något som kinesiska AI-företag tagit till sig. Alibaba, Baidu och Tencent anställer hundratusentals personer som redaktörer, kontrollers och kvalietsgranskare för att identifiera när AI gör fel och för att kunna korrigera dessa fel. Den här typen av investering i mänsklig intelligens har i många fall betalat sig. Kinesiska företag har, trots att de varit eftersläntrare, på kort tid kommit ikapp amerikanska och europeiska konkurrenter. En av anledningarna till detta är att de inte gått vilse i science-fiction fantasier om vad AI är och vad det borde vara. Istället har i de större utsträckning jobbat utifrån de möjligheter och begränsningar som tekniken har idag.
Karim Jebari, filosof och framtidsforskare