1382 forskare och tech-chefer: "Pausa AI-utvecklingen för att förhindra utplåning"
Flera forskare kräver att utvecklingen av kraftfull AI sätts på paus. Detta för att förhindra en potentiell katastrof till följd av att AI-utvecklingen springer ifrån oss. En av undertecknarna är Olle Häggström, affillierad forskare vid Institutet för framtidsstudier. "Risken är att vi skapar en artificiell intelligens som förintar oss," säger han till Aftonbladet.
Över 1 300 chefer och forskare inom AI-fältet har skrivit under ett öppet brev som uppmanar till sex månaders paus i utvecklingen av mer kraftfulla AI-system. De argumenterar för att sådana system endast bör utvecklas när deras positiva effekter kan garanteras och risker kan hanteras. Risken för att skapa en AI som förstör mänskligheten är betydande enligt undertecknarna, inklusive Olle Häggström, forskare vid Institutet för framtidsstudier och matematikprofessor vid Chalmers.
De uppmanar alla företag att pausa utvecklingen av AI-system som är kraftfullare än OpenAI:s textrobot ChatGPT-4.
Forskarna säger att när AI-system blir mer kraftfulla utgör de en växande risk för mänskligheten.
Olle Häggström, som är oroad över riskerna, ser dock också potentialen hos AI att användas för att lösa stora samhällsproblem.
- AI har potential att bli nyckeln som kan lösa alla de stora samhälls-, klimat- och naturresursfrågorna och skapa en fantastisk blomstrande framtid för mänskligheten. Men då måste allt bli rätt, vi kan inte rusa framåt som vi gör nu. De ledande techbolagen stressas att släppa produkter innan de är säkra, därför att de vill hinna först och nå marknadsdominans. Det är en risk vi kanske kan leva med i nuläget, men riskerna ökar i takt med att AI-systemen blir mer och mer kraftfulla. De kan i princip bli obegränsat stora på bara några års sikt, säger Olle Häggström till Aftonbladet.
En konkret risk som Olle Häggström ser är att AI blir väldigt bra på att manipulera människor.
- AI visar redan förmåga till social manipulation. I en teknisk rapport pratar OpenAI om hur de har testat ChatGPT-4 i simulerade situationer. I en behövde den klara ett Captcha-test - visa att den inte är en robot genom att klara ett enkelt visuellt test - för att komma in på en webbsida. I den simulerade situationen stod GPT-4 i kontakt med en människa. Då kom den på att erbjuda människan betalning för att göra Captcha-testet åt den. Människan frågade. "Jaha, är du en robot?" GPT-4 svarade: "Nej, men jag är synskadad, därför behöver jag hjälp". Problemet är att vi kanske närmar oss en tröskelnivå där AI använder social manipulation mer systematiskt, för ändamål som vi kanske inte vet vilka de är, säger Olle Häggström till Aftonbladet.
Se också: