Sök ikon

KRÖNIKA

ARASH GILAN: En öppen AI-debatt skyddar mot ogrundad rädsla

Arash Gilan är vd och medgrundare av marknadsföringsbyrån Viva Media. Foto: Press/iStock

Utvecklingen av AI är en stor framgång och vinst för mänskligheten, men den kommer även med tesen om ett hot om undergång. Lösningen på alla utmaningar kring AI finns där ute, men för att vi ska hitta den behöver den offentliga debatten fortsätta.

Det skriver Arash Gilan i en krönika.

Arash Gilan

Arash Gilan

Mitt i hypen kring AI finns det utöver optimismen även en utbredd oro bland många för den nya tekniken och vad den innebär. AI har till och med jämförts med kärnvapen – något som jag adresserade i den här krönikan.

Där diskuterade jag den ofta irrationella skräcken som brukar haka på ny teknik, och betydelsen av att särskilja på rädslor som faktiskt har substans och de som mer liknar skräckisar. 

I följande krönika vill jag dyka ännu djupare in i AI:s komplexa landskap, punktera de uppblåsta hotbilder som inte har någon fast grund i verkligheten, och istället rikta fokus mot de lösningar som kan hjälpa oss att hantera AI på ett ansvarsfullt och framgångsrikt sätt.

Måla inte AGI på väggen

Många av de största farhågorna som florerar i den offentliga debatten är kopplade till rädslan för AGI – Artificiell Generell Intelligens. Och innan jag beskriver vad det är, låt oss klargöra en sak: den AI vi har nu är inte AGI. Och om vi någonsin kommer att se AGI i sin fulla prakt är högst osäkert. Jag själv har en stark övertygelse om att vi kan spegla människan, men att vi inte kan digitalisera henne helt och hållet.

Drömmen om AGI står för en form av artificiell intelligens som har förmågan att förstå, lära sig och utföra en bredd av intellektuella uppgifter på samma nivå som en människa. Den är inte låst till specifika områden eller arbetsuppgifter, utan bär på en generell intelligens applicerbar på många olika områden.

Föreställ er en AGI som löser komplicerade problem, anpassar sig till nya situationer, tar egna initiativ och genererar nya idéer. En AI som kan tolka och förstå omvärlden, generalisera och överföra kunskap från en situation till en annan, samt kommunicera och samarbeta med människor på ett naturligt sätt – kanske till och med ha en medvetenhet om sig själv.

Vissa av dessa saker uppfyller redan AI, men steget är väldigt långt från våra språk- och bildgeneratorer (så kallad generativ AI) till en äkta AGI som skulle vara betydligt mer anpassningsbar och kapabel att hantera komplexa intellektuella utmaningar. Se det som steget från den gamla knapptelefonen till dagens smartphone om inte skillnaden är ännu större. 

Så när andra pratar om en AI som likt Skynet i Terminatorfilmerna förintar hela mänskligheten, är deras resonemang inte förankrade i den verklighet som vi lever i idag med generativa AI:n. Därför ska du inte låta deras varningar skrämma dig i din vardag. 

Samtidigt är diskussionerna kring en AI som är smartare än människor fortfarande värda att hållas på ett filosofiskt plan, och det har mänskligheten gjort under en lång tid.

Låt mig dock vara tydliga med en sak: om AGI på något sätt skulle bli verklighet, tror jag inte att vi skulle stå inför en enda, allvetande AGI. Snarare skulle det finnas flera varianter. Flera olika företag skulle i konkurrens med varandra tillhandahålla AGI-tjänster. Denna mångfald underminerar redan den dystopiska bilden av ett hotande "Skynet".

AI-hotet har behandlats i snart 100 år

Redan i början av förra seklet funderade människor på hur vi kunde förebygga en potentiell fara från självmedvetna robotar – det vi idag refererar till som AI. De blickade in i framtiden och föreslog till och med lösningar på dessa utmaningar.

Ett exempel som står ut i mängden för mig är Asimovs lagar om robotik. De skapades av den framstående science fiction-författaren Isaac Asimov, som ägnade sitt liv åt att konstruera ett etiskt ramverk för relationen mellan människor och robotar – robotar som i hans visionära berättelser styrdes av artificiell intelligens. Dessa lagar debuterade i hans novell "Runaround" (1942) och blev sedan monumentala inom science fiction-genren. I dag, åtta decennier senare, är de fortfarande högst relevanta.

Här är lagarna, där jag bytt ordet “robot” mot “AI”: 

  • En AI får inte skada en människa eller genom underlåtenhet låta en människa komma till skada.
  • En AI måste lyda order som ges av människor utom där sådana order skulle strida mot den första lagen.
  • En AI måste skydda sin egen existens så länge ett sådant skydd inte strider mot den första eller andra lagen.

I sin grundläggande natur är dataprogram, som AI, verksamma baserat på definierade mål. Deras essens är att de har en funktion. Om vi formulerar korrekta målparametrar för en AI, kommer den att verka i enlighet med våra förväntningar, snarare än att utgöra ett hot.

Genom att integrera Asimovs lagar i våra mål för AI, kan vi förhindra att även framtidens AI blir ett hot mot mänskligheten. Även om dessa tre lagar kanske inte utgör hela lösningen på problemet, indikerar de att vi är på god väg mot att hitta den.

Det är därför högst troligt att vi kommer att kunna hantera AI nu och i framtiden. Men den mest avgörande frågan kvarstår: Hur får vi människan att använda AI på ett ansvarsfullt sätt – för att gynna varandra snarare än att skada varandra?

Mänsklighetens etiska ansvar

Den destruktiva potentialen hos en ny teknik är det som definierar vilket etiskt och moraliskt ansvar som tekniken kräver av oss. Det ser vi i vår jämförelse med atomklyvning och kärnvapen.

Vid atombombens uppkomst var ett frågetecken hur forskarna skulle hantera det faktum att deras upptäckter kunde leda till en fruktansvärd kraft och massförstörelse. Här ligger ett etiskt ansvar även på dagens forskare, utvecklare och politiker. Vi kan inte introducera och applicera den nya AI-tekniken i samhället utan att överväga konsekvenserna av vårt handlande. Vi kan inte agera i blindo, utan frågan om AI måste dryftas av alla inblandade och i alla delar av samhället. 

En annan etisk fråga som togs upp under förra seklet var om forskarna borde ha varit mer öppna kring sitt arbete och vad som pågick vid Manhattanprojektet. Projektet var höljt i sekretess och få utomstående hade insikt i dess innersta verksamhet. En liknande situation råder idag. Alla inblandade parter behöver sträva efter största möjliga transparens i utvecklingen av denna banbrytande teknik. Vi måste lära av varandra för att utmaningar och risker kan upptäckas och hanteras i ett så tidigt skede som möjligt.

Risken för att kärnvapen skulle användas igen efter andra världskriget ledde till en global debatt om nedrustning och ickespridning av kärnvapen. Och även om faran med AI är överdriven, kan och kommer den användas i dunkla syften framöver. Det är oundvikligt. Därför behöver samhället enas, likt överenskommelsen om att begränsa användningen av kärnvapen, och minimera negativa effekter av AI så mycket som möjligt.

Både atombomben och AI ger en enorm makt till dem som kan kontrollera och använda dem. Denna makt kan påverka internationella relationer, geopolitik och samhällsstrukturer. Därför är det avgörande att vi skapar internationella normer, regler och avtal för att reglera användningen av dessa teknologier och minimera potentiella risker. 

Men jag har inga vida förhoppningar om att så kommer att ske. Som det ser ut just nu går EU i framkant helt själv och reglerar sönder allting, medan USA och Kina fortsätter sin utveckling ensamma. Detta är beklämmande av flera anledningar. EU kommer fortsatt halka efter i tech-sektorn, och investeringar och bolag inom AI kommer att flyttas till öst och väst.

Det gäller att hålla sig mitt på vägen och vara nykter i sina tankar kring AI, så att man varken blir oaktsam eller hemfaller åt ogrundade rädslor.

Det öppna samtalet måste fortsätta

Låt oss lära oss av historien, och hur vi hanterar uppkomsten av en ny teknik är en sådan sak. Vi kan se likheter i den vetenskapliga grunden som båda teknikerna vilar på, i hur människor reagerar på farorna med den nya tekniken, de moraliska ställningstagningarna de kräver, maktcentraliseringen den möjliggör, kapplöpningen den skapar och behovet av internationella överenskommelser och riktlinjer. 

Så vi bör fortsätta prata, fortsätta utmana, fortsätta ifrågasätta och framför allt, fortsätta utforska. För det är genom att göra detta som vi kommer att kunna navigera i denna nya värld av artificiell intelligens, med all dess potential och alla dess risker, på mest effektiva och ansvarsfulla sätt.

ARASH GILAN är vd och medgrundare av marknadsföringsbyrån Viva Media. Han driver även VD-podden och skrivit flera böcker inom tech och digitalisering där den senaste boken heter “En djävel på e-handel”.

Läs mer