Markus Furendal: För kontaktsökande människor spelar det ingen roll att de pratar med en AI
Elizaeffekten avser människans förmåga att förälska sig i datorprogram. Ett vanligt motiv i fiktionen som fått sitt namn efter den rudimentära chatboten Eliza skapad av MIT-forskaren Joseph Weizenbaum på 1960-talet. Myten säger att Weizenbaums sekreterare omgående förälskade sig i chatboten, och bad om att få bli lämnad ifred med programmet. "Det är svårt att avfärda misstanken att AI-företagen väljer att designa sina tjänster på ett sätt som aktiverar den så kallade Elizaeffekten," skriver Markus Furendal i DN.
Detta är en del av Institutet för framtidsstudiers nyhetsbrev, september 2024. Läs hela här >
Prenumerera på våra utskick >
"När Helsingfors nya stadsbibliotek Oodi öppnade år 2018 var en av de stora innovationerna de automatiska rullande boklådor som rörde sig självständigt genom lokalerna. Roboten MiR2000, som till utseendet påminner om en robotgräsklippare med en overheadmaskin ovanpå, levererar återlämnade böcker från sorteringsmaskinen till mänskliga medarbetare som sorterar in dem på rätt hylla. Besökare på Oodi kan dessutom knappa in frågor på robotens skärm och få hjälp att hitta i det stora biblioteket. När det visade sig att biblioteksanvändarna hade svårt att förstå hur de skulle interagera med roboten kom utvecklarna på en enkel lösning. De monterade helt enkelt ett par stora, gulliga ögon längst fram, och programmerade in rörelsemönster som påminner om roboten R2D2 i ”Star wars”-filmerna. När en MiR2000 lyckas leda en besökare till rätt hylla blippar den glatt och snurrar runt, innan den åker vidare. Besökarna följer den fascinerat runt i biblioteket.
Vi har alltid haft en stark benägenhet att tillskriva mänskliga egenskaper åt alla möjliga slags fenomen och varelser. I såväl naturen som staden hittar vi mönster som framstår som ansikten. Vi skriker på strulande teknikprylar och sörjer husdjur som familjemedlemmar när de dör. Denna tendens har säkert tjänat oss väl, för när vi föreställer oss att naturfenomen och djur har syften eller avsikter kan vi lättare förstå hur vi ska förhålla oss till dem. Så här, några år in i AI-boomen är det dock tydligt att samma tendens att förmänskliga tydligt kommer att prägla vår relation till de nya AI-verktygen.
Att en AI-modell som Chat GPT framstår som en mänsklig samtalspartner beror emellertid inte enbart på vår inneboende tendens att antropomorfisera. Systemet har finslipats genom att konversera med människor som poängsätter dess svar. Utvecklarna har valt ett gränssnitt som ger känslan av att det finns någon i andra änden, som skriver ord för ord på ett tangentbord, precis som vi. Open AI lanserade nyligen dessutom en röst som var så mänsklig att skådespelerskan Scarlett Johansson, i ett öppet brev där hon anklagade företaget för att ha plagierat hennes röst, noterade att inte ens hennes släkt och vänner kunde höra skillnad mellan henne och roboten.
Det är svårt att avfärda misstanken att AI-företagen väljer att designa sina tjänster på ett sätt som aktiverar den så kallade Elizaeffekten. Detta fenomen har fått sitt namn från den rudimentära chatbot som MIT-forskaren Joseph Weizenbaum utvecklade på 1960-talet och döpte efter karaktären Eliza i George Bernard Shaws pjäs ”Pygmalion”. Myten säger att Weizenbaums sekreterare omgående förälskade sig i chatboten, och bad om att få bli lämnad ifred med programmet. Motivet är vanligt i fiktionen. I Willy Kyrklunds novell ”Själens åtrå”, publicerad 1982, skildras en tilltagande kärleksrelation mellan huvudpersonen och robotpsykologen Eliza 812 som slutar med att de rymmer iväg tillsammans. Huvudpersonen i Spike Jonzes film ”Her” från 2013 blir kär i sin chatbot – vars röst spelas av just Scarlett Johansson – men AI:ns känslor är mer komplexa. Skildringar som dessa tecknar ett scenario för hur mänskliga relationer påverkas när vi snart har en ständig möjlighet att sätta i en trådlös hörlur och få en samtalspartner, vän och älskare.
En sådan framtid verkar allt mer sannolik i ljuset av att investerare börjar fråga sig vad affärsidén bakom AI egentligen är. Vilken är den potentiella intäktskälla som motiverar fortsatta miljardinvesteringar i processorkraft för att träna nya och mer kompetenta modeller? Ett möjligt svar är att sociala medieföretag, som verkar ha nått en gräns för hur mycket värde som kan utvinnas ur kommunikation mellan människor, kan försöka expandera in i tidigare oexploaterade områden, som nära relationer. Snapchat introducerade exempelvis förra året den Chat GPT-drivna chatboten ”My AI”, en artificiell vän som nu finns tillgänglig för vem som helst att prata med och få råd av. Företaget Replika har i flera år erbjudit en ”AI-vän som bryr sig” i form av digitala avatarer som, för betalande prenumeranter, inleder verklighetstrogna kärleksrelationer. Samma AI-teknik som används för att skapa pornografiska deepfakes möjliggör också den explosionsartade tillväxten på marknaden för virtuellt återskapade döda släktingar, som alltid svarar när man ringer videosamtal, och imiterar sina avlidna föregångares nycker och manér för all framtid."
Läs hela texten i DN: För kontaktsökande människor spelar det ingen roll att de pratar med en AI