avsnitt 6 av 9

Varför Maskininlärning (Machine Learning) & Artificiell Intelligens (AI) Nu?

Johan Svensson mars 30, 2020

Varför uppstår maskininlärning (machine learning) och artificiell intelligens nu?

Även om maskininlärning existerat i många decennier så är det först på senare år som metoderna fått genomslag. Detta har en multifaktoriell förklaring, som följer:

  1. Tillgång till data. För ett par år sedan existerade inte data. Patientjournaler existerade bara i pappersform, besöksstatistik samlades knappt in på webbsidor, mobiltelefoner lagrade inga data osv. Idag lagras och organiseras ofantliga mängder data. Din dator/mobiltelefon har redan lagrat information om hur längde du spenderat på denna sidan, var du befinner dig just nu, alla sidor du surfat på idag, alla söktermer du använt i Google osv. Det är också först nu som de flesta verksamheter insett att data är bland det mest värdefulla de har. För ett företag kan rätt utnyttjande av data göra skillnaden på konkurs och börsnotering. För en forskare kan rätt utnyttjande av data leda till sensationella upptäckter. Data har idag blivit värt sin vikt i diamant och det finns otroliga mängder data att tillgå.
  2. Lagring av data. Organisering och lagring av data är komplicerat. Denna teknologi har utvecklats raskt under de gångna decennierna. Lagrinskapacitet, hastighet och åtkomst till databaser har ökat lavinartat.
  3. Hårdvara. I en dator sker beräkningarna i en processor. Utöver processorn har datorn även ett minne. Processorers hastighet har fördubblats vartannat år sedan 1970 (denna fördubbling i hastighet vartannat år kallas Moores lag).
  4. Förbättrade algoritmer. Det finns många olika metoder för maskininlärning. Även om principerna för maskininlärning ser likadana ut idag som för 50 år sedan, så har algoritmerna optimerats avsevärt under årens gång. Flertal geniala förbättringar har gjorts, varav backpropagation är en av dem. Backpropagation är en mekanism som leder  till att maskininlärningen justerar och kalibrerar modellen automatiskt.
  5. Demokratisering av AI. För 10 år sedan kunde endast större verksamheter skapa och använda AI. Idag kan vem som helst, med hjälp av en vanlig persondator och tämligen ringa kunskaper om programmering, använda AI.

Allt spelande lönade sig

Branschen för datorspel är enorm. Miljontals barn och vuxna spelar datorspel och under årens gång har dessa spel blivit allt mer realistiska och därmed tekniskt krävande. Stora bolag som NVIDIA och AMD investerar miljarder dollar för att utveckla och förbättra grafikkort, vilket gjort det möjligt för vem som helst att spela datorspel med imponerande grafik. Grafikkort är faktiskt också en typ av processor och det visade sig att grafikkort är utmärkt för att göra matematiska beräkningar, särskilt för machine learning. Därför började tillverkarna anpassa grafikkortet och mjukvaran så att de även skulle kunna användas för machine learning. Vidare blev det också möjligt att koppla ihop många grafikkort och därigenom utnyttja deras gemensamma kraft parallellt (beräkningarna kan således fördelas på flera grafikkort och således påskyndas avsevärt).

Idag kostar grafikkortet NVIDIA Titan X cirka 10000 SEK och med detta kort vem som helst få ut 6.6 TFLOPS, vilket är ekvivalent med beräkningskapacitet på 6.6 triljoner beräkningar per sekund (vilket är cirka 400 gånger mer än processorn i en kraftfull persondator). Denna kraft räcker för att skapa imponerande artificiell intelligens.  

Idag är det inte ovanligt att företag och organisationer har egen infrastruktur där hundratals grafikkort kopplats ihop. Molntjänster som erbjuds av Amazon AWS, Google Cloud Computing och Microsoft Azure gör det också möjligt för vem som helst att nyttja datacenter med enorm beräkningskapacitet.

Den engelska termen för grafikprocessor är GPU (Graphical Processing Unit) och för vanlig processor CPU (Central Processing Unit).

AI är fortfarande ett litet barn

Idag finns förkortningen AI överallt. Kloka och framsynta människor anser numera att majoriteten av medborgarna borde gå en kurs i AI. Detta är tämligen överraskande eftersom ingen pratade om AI för 10 år sedan. År 2010 var neuronnät (den typ av AI som dominerar idag, diskuteras senare) fortfarande relativt försummade men det fanns några forskargrupper som envetet försökte använda dem till att tolka bilder. Geoffrey Hinton, Yoshua Bengio och Yann LeCun gjorde flera banbrytande framsteg år 2010.  Dan Ciresan demonstrerade år 2011 ett neuronnät som kunde tolka bilder med imponerande precision. År 2012 vann Hinton och Krizhevsky den årliga ImageNet-tävlingen med hjälp av ett neuronnät som tolkade bilderna rätt i 83.6% av fallen. Sedan dess har neuronnäten fullständigt dominerat fältet computer vision, vilket är AI som tolkar bilder och video. Det har gradvis också visat sig att neuronnäten faktiskt fungerar på alla perceptuella uppgifter, dvs uppgifter som går ut på att tolka ljud, bild, video, text och andra signaler.

5/5 (1 Review)