Vad är AI, ML & DL? Förstå grunderna med hjälp av en rysk docka

AI, ML, DL – det låter kanske som hemliga kodord ur en sci-fi-rulle. Men bakom dessa bokstavskombinationer döljer sig tekniker som påverkar din vardag varje gång du scrollar, handlar eller pratar med din telefon.

I det här inlägget bryter vi ner begreppen med hjälp av en rysk docka – en visuell modell som gör det enklare att förstå vad AI faktiskt är, varför ML behövs för att AI ska fungera, och hur DL är den mest avancerade tekniken hittills.

Häng med – du använder redan AI varje dag, utan att du tänker på det.

AI, ML och DL – hur händer de ihop?

AI dyker upp överallt: i mobilen, på jobbet, i klassrummet – till och med i krigsföring och sjukvård. Men vad betyder det egentligen?

Många blandar ihop AI med vanlig mjukvara – men AI skiljer sig genom att den kan lära och anpassa sig. Det är inte bara ett program som följer instruktioner – det är ett system som utvecklas över tid.

Här börjar förvirringen. Många tror att AI är en enda sak. Men AI är inte en enda sak – det är ett helt ekosystem inom datavetenskapen. Och för att förstå hur allt hänger ihop, använder vi en klassisk metafor: den ryska matrjosjka-dockan.

AI, ML och DL – som tre lager i en rysk docka

Du känner säkert till den ryska matrjosjka-dockan, en docka som rymmer fler mindre dockor inuti sig.

Den största dockan symboliserar AI – paraplyet som samlar all form av maskinell intelligens. Inuti finns maskininlärning (ML), tekniken som tränar AI att bli bättre med tiden. Och längst in hittar vi djupinlärning (DL) – ett avancerat nätverk av algoritmer som efterliknar hjärnans sätt att bearbeta information.

Låt oss öppna dockorna – en i taget.

Visualisering av AI, ML och DL: en rysk docka-metafor som visar hur artificiell intelligens, maskininlärning och djupinlärning hänger ihop.

AI – paraplyet som samlar alla smarta system

AI är ett ord som används flitigt – men vad är det egentligen vi menar? Artificiell intelligens (AI) är inte en specifik teknologi, utan ett samlingsnamn för system som kan utföra uppgifter vi annars förknippar med mänsklig intelligens: att resonera, fatta beslut, lära sig och förstå språk. Det kan handla om allt från att sortera mejl till att navigera självkörande bilar.

Till skillnad från traditionell mjukvara, som bara gör exakt det den blir tillsagd, kan AI förändra sitt beteende över tid genom att lära sig från data. Det är här AI blir kraftfull – och ibland också svår att greppa.

Exempel på AI i vardagen:

Du kanske inte tänker på det – men AI används redan i många av våra dagliga apparater och tjänster. Här är några exempel:

  • Netflix: Får du rekommendationer du faktiskt gillar? Det är AI som analyserar vad du sett och vad liknande användare föredrar.
  • Chatbots i kundtjänst: De förstår dina frågor och föreslår lösningar.
  • Självkörande bilar: AI samlar in och tolkar data från kameror, sensorer och kartor – i realtid.
  • Röstassistenter (Siri, Alexa, Google Assistant): Förstår talets struktur, minns tidigare kommandon, sparar tidigare interaktioner för att förbättra svar och anpassning.
  • Robotdammsugare och robotgräsklippare: Kartlägger ditt hem och planerar rutter – autonomt.
  • Bildförbättring i mobilkameror: AI justerar ljus, skärpa och färg i realtid.
  • Spamfilter i e-post: Lär sig vad du betraktar som skräppost.
  • AI i sjukvård: Analyserar röntgenbilder och föreslår diagnoser.
  • Rekryteringssystem: AI förhandsgranskar CV:n för att matcha rätt kandidat.
  • E-handel: AI skräddarsyr produktförslag och kampanjer för dig som besökare.

Det gemensamma? Systemen agerar utifrån data – ofta i bakgrunden – för att skapa en smartare och mer personlig användarupplevelse.

Vad är AI?

AI kan fungera på flera nivåer. Enklare AI är regelbaserad – till exempel ett schackprogram med förutbestämda regler. Mer avancerad AI är lärande – som språkmodeller eller bildtolkningssystem som blir bättre ju mer de används.

Men betyder det att AI är intelligent på riktigt?

Inte riktigt. Det AI gör är att imitera intelligens – ofta mycket övertygande. En språkmodell som ChatGPT verkar förstå dig – men den analyserar egentligen bara statistik bakom dina ord.

AI är alltså inte medveten. Men den kan imitera mänskligt beteende på ett sätt som känns intelligent för oss som använder den.

Problematik

📌 Intelligent:

När vi kallar något för ”intelligent” syftar vi ofta på förmågan att resonera, anpassa sig och fatta medvetna beslut. Men AI gör inget av detta med förståelse – det handlar om mönsterigenkänning och statistik.

Den kan alltså inte fatta situationsanpassade, medvetna beslut såsom en människa. Istället agerar AI utifrån förutbestämda mönster och sannolikheter – vilket innebär att den inte är intelligent i mänsklig bemärkelse.

AI imiterar intelligens, men förstår inte det den gör. Det betyder att vi kan få väldigt användbara resultat – men också att vi måste vara medvetna om teknikens begränsningar.

Det innebär att gränsen mellan automation och intelligens ofta suddas ut. Bara för att ett system verkar ”tänka”, betyder det inte att det gör det på riktigt.

📌 Det väcker den kanske mest brännande frågan av alla:

Vem bär ansvaret när AI får makt över livsavgörande beslut – beslut som inte bara handlar om teknik, utan om människors framtid, hälsa och trygghet? När ett AI-system används i sjukvården, rättsväsendet eller arbetslivet – vem står då till svars när algoritmen har sista ordet?

Om en AI-assistent ger felaktiga vårdråd – vems fel är det egentligen? Utvecklaren, organisationen som använder tekniken, eller AI själv?

AI-system används allt oftare i kritiska sammanhang: sjukvård, rättsväsende, försvar och krishantering. Men när AI får makt att påverka liv, måste ansvaret vara klart och tydligt.

”The robot behaves ethically not because it chooses to but because it’s programmed to do so… we call it an ethical zombie.”
— Alan Winfield, professor i robotetik

Forskaren lyfter ofta behovet av transparens i autonoma system. Han menar att vi bör förse AI med en ”ethical black box” – en slags etisk flygplanslåda som loggar varje beslut modellen fattar. På så sätt kan vi i efterhand analysera hur och varför ett visst beslut togs – särskilt viktigt i system som används i sjukvård, rättsväsende och andra säkerhetskritiska miljöer.

Läs mer i intervjun “Robots Show Us Who We Are” från tidskriften Nautilus.

Frågor för din organisation:

  • Vilka riktlinjer finns på plats för hur AI får användas?
  • Vem vill, och kan, ifrågasätta ett beslut som ett system fattat?
  • Känner alla involverade till konsekvenserna – både tekniskt och juridiskt?

Att införa regler, spårbarhet och tydlig ansvarsfördelning i AI-projekt är inte bara bra – det är ett måste.

ML – maskininlärningens magi

Maskininlärning (ML) är motorn i många AI-system. Det är tekniken som gör att AI faktiskt lär sig – från data, exempel och tidigare erfarenheter.

Tänk dig att du vill lära ett system att skilja på katter och hundar. Istället för att programmera varje detalj (öronform, noslängd, svansvinkel…), matar du modellen med tusentals bilder och berättar vilka som visar en katt och vilka som visar en hund. Efter ett tag lär sig modellen att känna igen mönstren – ofta bättre än människor.

Det är maskininlärning i ett nötskal: att träna systemet på data så att det kan förutsäga eller fatta beslut utan att ha blivit direkt instruerat för varje enskild uppgift.

Vad är ML?

Maskininlärning är en gren inom AI som bygger på att algoritmer lär sig direkt från data. Istället för att hårdkoda regler, tränar vi modellen med exempel. Den bygger själv upp sina regler – och fortsätter förbättra dem över tid.

På så sätt fungerar maskininlärning också som AI:ns minne – inte i bemärkelsen att den minns exakt vad du gjorde igår, utan genom att lagra och justera sina vikter och mönsterigenkänning utifrån all den datan den tränats på. Det är detta ”minne” som gör att modellen vet hur den ska agera i nya, liknande situationer.

I vissa fall fortsätter ML-modeller att lära sig även efter de börjat användas – det kallas för online learning. Men det kräver också att vi är uppmärksamma på vad modellen lär sig och varför.

Olika typer av ML:

Maskininlärning kan delas in i tre huvudgrupper:

  • Övervakad inlärning: Modellen får både input (t.ex. bilder) och rätt svar (t.ex. ”det här är en katt”). Vanligt i e-postfilter, kreditbedömning, sjukdomsdiagnostik.
  • Oövervakad inlärning: Modellen får bara datan – ingen facit. Den letar själv efter mönster eller grupperingar. Vanligt i kundsegmentering eller klusteranalys.
  • Förstärkningsinlärning: Modellen lär sig genom att försöka, misslyckas och belönas. Vanligt i spel, robotstyrning och självlärande system.

Exempel på ML i vardagen:

ML är överallt omkring oss – ofta utan att vi tänker på det. Här är exempel från vardagen:

  • Ansiktsigenkänning i din mobil – modellen tränas på att känna igen just ditt ansikte.
  • Spotify – musikförslag baserat på vad du och andra lyssnat på.
  • Kreditvärdering – banker använder ML för att bedöma om du får lån.
  • E-postfilter – lär sig vad du brukar betrakta som spam.
  • E-handelsförslag – ”Andra som köpte detta köpte också…”
  • Stegräknare och aktivitetsmätare – känner igen rörelsemönster.
  • Robotdammsugare – lär sig hur ditt hem ser ut och optimerar sin städning.
  • Förbättrade kamerainställningar – mobilen anpassar ljus och fokus baserat på vad du fotar.

Problematik

📌 Maskininlärning bygger på historisk data:

Men historisk data kan innehålla mönster vi inte vill att AI:n ska lära sig. Den kan spegla gamla fördomar, felaktiga antaganden eller snedvridna prioriteringar.

  • Ett rekryteringssystem som lär sig från gamla anställningar kan reproducera köns- eller åldersdiskriminering.
  • En modell som tränas på sjukvårdsdata och där vissa grupper fått försämrad vård förstärker ojämlik behandling.
  • En algoritm som granskar polisrapporter kan omedvetet förstärka rasprofilering om historiken är partisk.

Det här gör det svårt att lita blint på AI-beslut.

Kan vi förstå varför modellen fattar sina beslut? Kan vi granska den? Långt innan tekniken tas i bruk är det centrala frågor organisationer och företag behöver ställa sig.

Vill du läsa mer om etiska risker med maskininlärning? Se AI Now Institute’s rapporter om bias och ansvar.

DL – den innersta dockan med lager på lager

Djupinlärning (DL) är den mest avancerade delen av AI-pusslet. Det är här vi hittar tekniker som närmast liknar det mänskliga tänkandet – men på maskinens villkor.

Tänk dig DL som det innersta lagret i matrjosjkan. Det bygger på artificiella neurala nätverk, som är inspirerade av hur den mänskliga hjärnan fungerar: ett stort nätverk av sammankopplade “noder” (som neuroner) som bearbetar information i flera lager.

Varje lager förfinar och tolkar informationen på ett nytt sätt – från grova mönster till fin detalj.

Vad är DL?

DL är en underkategori till maskininlärning, men med en viktig skillnad: djupet. Med många lager i nätverket (ibland hundratals), kan modellen hantera extremt komplex data och lära sig abstrakta representationer.

Det är det som gör att en DL-modell kan skilja mellan ett leende och ett sarkastiskt ansiktsuttryck, eller förstå sammanhang i ett längre stycke text.

Det här möjliggör bland annat:

  • Röstigenkänning
  • Automatisk översättning
  • Självkörande fordon
  • Medicinsk bildanalys
  • Kreativ AI (bildgenerering, musikkomposition)

Exempel på DL i praktiken:

  • Cancerdiagnostik – tolkar röntgenbilder med hög precision.
  • Röstassistenter – tolkar inte bara orden, utan också tonfall och sammanhang.
  • Google Translate – bygger på DL för att översätta hela meningar, inte bara ord.
  • AI-bildgeneratorer (som Midjourney, DALL·E) – skapar konst utifrån textbeskrivningar.
  • Självkörande teknik – tolkar miljöer och fattar beslut i realtid.
  • Cybersäkerhetssystem – upptäcker nya hot genom att analysera beteendemönster.

Problematik

📌 Djupinlärning har en stor styrka – men också en stor svaghet:

Vi vet inte exakt hur besluten tas. Det kallas ofta för “svart låda”-problemet. Vi vet vad som matas in, och vi ser resultatet – men vi vet inte med säkerhet hur modellen kom fram till sitt svar.

Detta gör det svårt att:

  • Granska beslutsgrunder
  • Upptäcka dolda fel
  • Agera ansvarsfullt när något går fel

För säkerhetskritiska tillämpningar – som sjukvård eller rättstillämpning – är detta en betydande risk.

📌 Energiförbrukning:

Att träna en stor DL-modell kräver enorm datorkraft. Det kan handla om flera hundra megawattimmar – ibland mer än vad ett hushåll förbrukar på ett år. Detta väcker frågor om klimatpåverkan och teknisk hållbarhet.

📌 Etiska gråzoner:

När vi inte kan förklara AI:ns beslut, är det svårt att utkräva ansvar. Vem är skyldig om modellen agerar diskriminerande? Hur vet vi att den inte förstärker stereotyper? Vad händer om vi litar blint på ett beslut vi inte kan ifrågasätta?

Läs gärna mer om DL:s miljöpåverkan och framtidsprognoser i Stanford’s AI Index Report.

Konkreta tips: Så kan du förstå och prata om AI

Känner du dig fortfarande lite osäker på hur AI, ML och DL hänger ihop? Det är helt normalt.

Här är några enkla sätt att tänka och prata om tekniken:

  • Tänk på AI som ett paraply: Allt som ”tänker” eller anpassar sig kan ligga under AI-begreppet.
  • Använd matrjosjka-metaforen: AI (yttersta dockan), ML (mellersta), DL (innersta).
  • Ställ nyfikna frågor: Var kommer datan ifrån? Kan vi förstå besluten? Vem bär ansvaret?
  • Var öppen – inte rädd: Du behöver inte förstå allt – men att ha grundläggande koll gör dig mer trygg och förberedd.

Fundera på hur du kan använda AI i just din vardag eller organisation – och våga prata och problematisera tekniken!

Sammanfattning – Tre dockor, ett ekosystem

AI är alltså inte en magisk låda som vet allt. Det är en struktur, uppbyggd av lager, där varje del har sin funktion:

  1. AI är skalet – det du ser och interagerar med.
  2. ML är motorn – den som gör att systemet minns och kan lära sig.
  3. DL är det inre nervsystemet – där mönsterigenkänningen når sin högsta nivå.

Tillsammans utgör de grunden för den teknik som allt fler företag, myndigheter och privatpersoner börjar använda – ofta utan att förstå exakt vad som pågår.

Med rätt förståelse kommer bättre beslut. Och med bättre beslut – en tryggare digital framtid.

Vill du lära dig mer?

Följ vår blogg! Varje vecka delar vi pedagogiska inlägg som gör teknik mindre skrämmande – och mer mänsklig.

  • Har du frågor eller egna tankar? Dela dem i kommentarsfältet!
  • Hur använder du AI i vardagen – medvetet eller omedvetet?

Rulla till toppen