Sök

AI – från dröm till verklighet

ARASH GILAN: Drömmar, tankar, forskning och hårt jobb – här är historien om AI

AI

Arash Gilan. Foto: Press/Wikipedia Commons/iStock

Arash Gilan

Arash Gilan

Har du någonsin stannat upp och reflekterat över vad det är som sker? Dels hur vi som samhälle har kommit dit vi är idag teknologiskt, men framförallt varför vi har kommit dit vi är idag med AI?

Här är första delen i Arash Gilans artikelserie om AI:ns historia: "AI – från dröm till verklighet".

De senaste tio åren har jag lagt en stor del av mitt liv på att engagera mig i frågor kring tech, digitalisering och inte minst AI. Fokus har legat på att se på AI ur ett affärskritiskt perspektiv, men engagemanget har också grundat sig i ett filosofiskt intresse för AI och funderingar kring vad det hela gör med oss som människor.

I denna artikelserie i fyra delar vill jag ta med dig på en resa genom historien om människan och maskinen, visa hur vi har kommit hit, vad den utvecklingen innebär för oss som människor och även förstås kika på framtiden. Och det börjar som alltid med en skapelseberättelse.

Drömmen om AI

Människans fascination av skapelse och att skapa har funnits där sedan urminnes tider – från judiska, grekiska och hinduiska skapelseberättelser inom mytologin till historiska tänkare och filosofer, och från gamla skönlitterära mästerverk till vår moderna tids dystopiska filmproduktioner.

Bara för att nämna några exempel:

  • I grekisk mytologi finns berättelsen om Pygmalion, en konstnär som skapade en trästaty som sedan fick liv genom att han önskade sig det. Myten är ett tidigt exempel på tanken att människan skulle kunna skapa något som likt AI kan imitera eller överträffa människornas förmågor.
  • Inom filosofin beskrev Descartes redan i början på 1700-talet idén om den mekaniska människan – om kroppen kan sättas samman av olika delar så kanske även själen kan det? Hans tankar kring dualism har haft en enorm påverkan på filosofer och vetenskapsmän och hela vår västerländska kultur.
  • Inom det skönlitterära skrev Mary Shelley romanen Frankenstein på 1800-talet, vilken handlar om skapandet av ett människoliknande liv som inte kan kontrolleras av sin skapare. 

I takt med de industriella revolutionerna höjdes oroliga röster över vad detta skulle kunna innebära. Nietzsche kritiserade idén om att människan ska förbättras genom att använda externa hjälpmedel, och hävdade att människan bör söka sann kunskap genom att undersöka sin egen natur. Marx å sin del var inte emot teknologisk utveckling, men varnade för industrialismens centralisering av kapital där de rika skulle bli ännu rikare.

AI:n tar form

När vi äntrade 1900-talet ökade utvecklingen markant, tack vare utvecklingen av datorer och den tidiga forskningen kring AI. Forskningen byggde inledningsvis på en kittlande nyfikenhet och paradoxal fascination som var sammanvävd med rädsla. Detta ledde till en mängd olika perspektiv och idéer om hur människa och maskin interagerar och påverkar varandra, och från 1950-talet och framåt börjar AI att få momentum i takt med att datorer och digital data blir tillgängligt. 

1950 publicerar Alan Turing, en av de största AI-pionjärerna, artikeln “Computing Machinery and Intelligence”, det som senare kommer att kallas “Turingtestet”, där han formulerar ett prov för att avgöra om en dator kan visa intelligens som motsvarar en människas genom ett blindtest där människor får gissa på vilka svar i ett frågeformulär som kom från en dator och vilka som kom från en människa.

Den första kommersiella datorn släpptes 1951 och kostade i dagens penningvärde 15 miljoner dollar. Kapaciteten var dock sämre än en smartphone.

1956 så hålls den ökända Dartmouth Conference i USA där forskare träffas för att diskutera AI. Detta är också den första gången som begreppet AI (Artificial Intelligence) används och blir vedertaget. 60- och 70-talet vigs åt forskning inom områden som logik, sökalgoritmer och spelteori, och då utvecklades också tidiga AI-program som kunde spela schack och förstå enkel natural language processing (NLP) – helt enkelt en språkteknologi som den vi använder i till exempel i Google Translate idag.  

Vad kommer AI att bli?

Vad AI är och inte är finns det dock många åsikter kring. Eftersom artificiell intelligens är ett vagt begrepp missbrukas termen ofta. Krasst sett skulle ju allting som en dator gör kunna benämnas som AI. För mig personligen är AI en maskins förmåga att visa människoliknande drag, det som en maskin gör men som känns på något vis mänskligt.   

Författaren Stanislaw Lem ger en bild i sin bok Summa Technologiae (1964) av att vi i framtiden kanske kommer att kunna skörda kunskap som producerats av maskiner på samma sätt som vi skördar vete idag. En otrolig profetisk tanke som har många lager i sig, och som vi kommer att återkomma till i en senare del av denna serie. 

På 70- och 80-talet börjar AI och robotar att bli kommersiellt, och stora Hollywood-produktioner görs. West World, Alien, Blade Runner, Terminator och Robocop är några exempel på filmer som sätter dystopin kring AI, människa och maskin på tapeten. Milt sagt med en skräckblandad förtjusning. 

Pusselbitarna börjar falla på plats

På 1990-talet började forskare använda maskininlärning, ett viktigt underområde av AI då data är nyckeln, för att få datorer att automatiskt lära sig från data utan att programmeras med specifik kunskap. Stor crescendot är givetvis när IBM:s Deep Blue för första gången slår världsmästaren Garry Kasparov i schack 1997. Efter matchen sa Kasparov de berömda orden att mänskligheten nu har stött på en ny form av intelligens.

Under 2000-talet började takten att öka ytterligare, tack vare internets tillgänglighet och framfart. Själva drivmedlet för maskinlära och AI är nämligen data, och ju mer data vi kan producera desto smartare kan maskinerna bli. 

Med hjälp av den stora mängden data började man med regelbaserad AI, som är AI-system programmerade med specifika regler och algoritmer för att utföra enskilda uppgifter. Efter det kom maskinlära – utvecklingen av tekniker och metoder för att skapa system som kan lära sig av inhämtad data, såsom djupinlärning och nätverk som Google AlphaGo och IBM Watson. Efter det övergick man till det som kan benämnas som AI i form av smal och generell AI (mer om det strax). 

Här är några viktiga hållpunkter under de senaste 15 åren som ledde fram till att Open AI och Chat GPT-3, som släpptes 2022, såg dagens ljus: 

  • 2006: Google börjar använda Deep Learning-algoritmer för att förbättra sina sökresultat
  • 2010: IBM:s Watson vinner Jeopardy! mot två tidigare mästare
  • 2011: Deep Learning-teknik börjar användas för object recognition i bilder
  • 2014: Google visar upp sin neurala språkmodell, Google Translate, som börjar använda maskininlärning för översättningar
  • 2016: AlphaGo, utvecklat av Google DeepMind, vinner mot Lee Sedol i spelet Go
  • 2018: OpenAI:s GPT-2 (Generative Pre-trained Transformer 2) släpptes, och det är en av de största och mest avancerade generativa modellerna till dags datum

Bara mellan 2011 och 2012 producerades 90 procent av all data som mänskligheten fram tills dess hade skapat under sin tid på jorden. Så nästan alla data som någon hade skapat skapades under ett enda år. Och idag, drygt 12 år senare, genereras 20 gånger mer data varje år. 

Data som är helt avgörande för diverse AI-plattformar. 

Kommer AI:n passera människan?

För det finns två begrepp som är viktiga att förstå inom AI. Det första är smal AI. Smala AI-system är ofta mer effektiva än generella AI-system på att lösa specifika problem, men är begränsade till att endast utföra dessa specifika uppgifter. Många av de nischade produkter vi ser idag inom text, bild, ljud och foto är smal AI. Sen har vi nästa steg i AI:ns utveckling, nämligen generell AI som även benämns som AGI, Artificiell Generell Intelligens. En framtida hypotes kring AI är också Singularitet. Det är en teori som beskriver en förväntad framtida händelse då AI-system blir så avancerade att de kan förbättra sig själva och skapa en revolutionerande förändring i samhället. 

Vad är då skillnaden mellan dessa? Generell AI handlar om att skapa AI-system med människoliknande intelligens som kan utföra ett brett spektrum av uppgifter medan singularitet bygger på teorin om att det en dag kommer det att finnas en superintelligent AI som kommer att utveckla sig själv till att överträffa människans förmågor inom alla områden. 

Om detta faktiskt kommer att ske låter vi dock vara osagt. Forskarkåren är oense. 2014 trodde endast 10 procent av forskarna att det var sannolikt att vi någonsin skulle få en AGI med samma intelligens som en människa. Idag tror 50 procent av forskarna att det är sannolikt redan runt 2040 och 90 procent vid 2075, enligt forskaren Nic Bostroms enkät till världens ledande experter kring sannolikheten om när vi kan nå AGI på mänsklig nivå. 

Vi är således inte här av en slump, utan drömmar, tankar, forskning och hårt jobb sammanvävt med något av en självuppfyllande profetia har lett oss hit. Från grekisk mytologi och Descartes tankar om själen till gedigen datavetenskap. 

Men vart tar detta oss egentligen? Vet vi det, eller färdas vi bara i rasande fart längs en flod där vi till slut har tappat kontrollen? Vad händer med oss när datorer tänker bättre än vi, och skriver och skapar långt bortom mänskliga förmågor? Vad blir människans roll i denna nya värld av AI som vi har format? Vad finns det då för värde i människan? Det här är högst berättigade frågor som vi kommer utforska lite längre fram i denna artikelserie. I nästa del av denna serie tar vi en närmare titt på vad teknologi egentligen är och vad den i förlängningen innebär för människan.

ARASH GILAN är vd och medgrundare av marknadsföringsbyrån Viva Media. Han driver även vd-podden och skrivit flera böcker inom tech och digitalisering där den senaste boken heter “En djävel på e-handel”.

Läs mer