Innhold
01Hva er klassisk AI? 02Slik trenes en modell 03Klassifisering 04Regresjon 05Algoritmene 06Bruksområder 07Begrensninger 08Når velger du hva?

Maskinlæring · Dataviter

Kraftfullt,
presist og
undervurdert

Lenge før ChatGPT fantes det AI som stilte diagnoser, oppdaget svindel og forutså maskinsvikt. Det kalles klassisk maskinlæring — og det er fortsatt den dominerende formen for AI i industrien i dag. Her er hva det er, hvordan det lærer, og hva det faktisk kan brukes til.

Klassifisering Regresjon Dyplæring Lesetid ~8 min
Les videre

01 · Landskapet

Hva mener vi med «klassisk AI»?

Begrepet AI brukes i dag nesten utelukkende om store språkmodeller som ChatGPT. Men AI er et mye bredere felt — og størstedelen av AI-systemer som faktisk kjører i produksjon i dag er ikke språkmodeller.

Tenk på det slik: AI er paraplyuttrykket for maskiner som løser oppgaver som krever intelligens. Under det finner vi maskinlæring — algoritmer som lærer fra data uten å bli eksplisitt programmert med regler. Og inni maskinlæringen finner vi dyplæring — en kraftigere underkategori som bruker store nevrale nettverk og trenger langt mer data og regnekraft.

I denne artikkelen bruker vi «klassisk AI» om maskinlæring og dyplæring brukt til spesifikke, avgrensede oppgaver — i motsetning til de generative språkmodellene som er designet for å gjøre litt av alt.

AI-landskapet — forenklet
Kunstig intelligens (AI)
Maskinlæring (ML)
Beslutningstrær Gradient Boosting Logistisk regresjon Random Forest
Dyplæring (DL)
Nevrale nettverk CNN (bilder) LSTM (tidsserier) Transformers / LLM
«Klassisk AI» = maskinlæring + dyplæring — ikke de store generative modellene

Tradisjonell programmering vs. maskinlæring

Den grunnleggende forskjellen er hvor reglene kommer fra. I tradisjonell programmering skriver mennesket alle reglene eksplisitt. I maskinlæring finner maskinen reglene selv — fra eksempler.

Tradisjonell programmering

Mennesket skriver reglene

Du definerer alle if/else-betingelser manuelt. Fungerer for enkle problemer — men skaler dårlig til kompleksitet.

if pels == "kort" and ører == "spisse":
  return "katt"
elif hale == "busket":
  return "hund"
# og videre i det uendelige...
Maskinlæring

Maskinen finner reglene

Du gir eksempler med riktige svar. Modellen finner selv hvilke mønstre som skiller kategoriene.

# Vis tusenvis av eksempler:
model.train(bilder, labels)

# Modellen lærer selv:
model.predict(nytt_bilde)
# → "katt" (96% sikker)
💡 Kjerneinnsikt

Maskinlæring handler ikke om å programmere intelligens — det handler om å la maskinen oppdage mønstre i data som er for komplekse til å skrive som regler. Et neuralt nettverk for bildegjenkjenning har millioner av parametere. Ingen mennesker kunne skrevet de reglene manuelt.

02 · Treningsprosessen

Slik lærer en modell

Grunnideen er enkel: vis modellen mange eksempler med riktige svar. Den gjetter, tar feil, korrigeres — og justerer seg litt etter litt. Etter nok runder blir den god.

📚 Treningsflyt — katt vs. hund
Treningsdata
🐱🐶🐱🐱🐶🐶
med riktige svar (labels)
Modellen trenes
⚙️
Justerer vekter
millioner av ganger
Nytt bilde
🐱
Katt
94% sikkerhet

Bak «svart boks»-metaforen skjuler det seg matematikk: nettet har vekter — tall som sier hvor mye det skal stole på hvert signal i inputen. Trening betyr å justere disse vektene litt om gangen, ved hjelp av en metode som heter gradient descent, til modellen konsekvent svarer riktig på treningsdataen.

En god modell generaliserer — den gjør det bra på ny data den aldri har sett, ikke bare på det den ble trent på. Å skille treningsdata fra testdata er derfor avgjørende i all maskinlæring.

🐘
Men hva skjer med elefanten?

Modellen er trent på katter og hunder. Den har aldri sett en elefant. Likevel gir den et svar — fordi det er det eneste den kan. Den vet ikke at den ikke vet. Elefanthuden har kanskje grov tekstur som lignet hundepels. Resultatet:

🐘
Modellen
🐶 Hund — 71% sikker
Feil. Og den vet det ikke.

En modell er god innenfor det den har sett. Utenfor den grensen er den blind — og ingenting i modellen selv forteller deg når du har krysset den grensen.

Dette kalles et distribusjonsskift: modellen møter data som er fundamentalt annerledes enn treningsdataen. Det er en av de viktigste praktiske utfordringene i all maskinlæring — og en av grunnene til at overvåking av modeller i produksjon er kritisk.

🔬 Prøv selv
Hva tror du modellen svarer på disse inputene?
🐱
✓ Katt — 94% sikker
Modellen kjenner igjen mønstrene fra treningsdataen.

03 · Klassifisering

Hvilken kategori tilhører dette?

Klassifisering handler om å sortere input i forhåndsdefinerte klasser. Modellen svarer alltid med én kategori — og en grad av sikkerhet.

Beslutningsgrense — modellen trekker en grense mellom klasser
Ny observasjon Hvilken klasse? Klasse A Klasse B Beslutningsgrense

Tre eksempler på klassifisering i praksis

A · Bildegjenkjenning
Katt eller hund?

Det klassiske eksempelet. Tusenvis av merkte bilder mates inn. Modellen lærer å gjenkjenne ørenes form, snuten, pelstekstur. Etter trening svarer den på millisekunder — med høy presisjon.

CNN — dyplæring Bilder som input
0
B · Kundeklassifisering
Lav, medium eller høy risiko?

En bank bruker alder, inntekt, gjeldsnivå og betalingshistorikk til å klassifisere lånesøkere. Modellen plasserer hver kunde i et flerdimensjonalt rom — og tilordner den til nærmeste klasse. Raskere og mer konsistent enn manuell vurdering.

Gradient Boosting Strukturert tabelldata
SPAM
C · Tekstklassifisering
Spam eller ikke spam?

Ord som «gratis», «klikk her» og «eksklusivt tilbud» er sterke signaler. Modellen analyserer tusenvis av ord og deres kombinasjoner for å avgjøre om en e-post er spam. Samme prinsipp brukes til å rute kundehenvendelser til riktig avdeling automatisk.

Naive Bayes / Logistisk reg. Tekstdata

04 · Regresjon

Hvilken verdi vil dette ha?

Regresjon svarer ikke med en kategori, men med et tall. Prisen på en bolig. Strømforbruket neste time. Gjenværende levetid på en maskin. Én modell — uendelig mange mulige svar.

Regresjonslinjen — modellen tilpasser seg datapunktene
Størrelse (kvm) → Pris (kr) → 85 kvm → 4,2 mill kr 40 60 80 100 120

Tre eksempler på regresjon i praksis

🏠
Boligpris

Størrelse, beliggenhet, alder, antall rom → modellen predikerer markedspris i kroner. Brukes av meglere, banker og eiendomsselskaper for automatisk verdivurdering.

Input: 85 kvm, Oslo, 2012
→ Pris: 4 200 000 kr
Energiforbruk

Temperatur ute, antall ansatte, time på døgnet, sesong → predikert strømbehov neste time. Brukes til å optimere energikjøp og redusere kostnader i industri og bygg.

Input: -5°C, kl.08, mandag
→ Forbruk: 47 kWh
🔧
Gjenværende levetid

Vibrasjon, temperatur, driftstimer, oljetrykk → predikert antall timer til service er nødvendig. Grunnlaget for condition-based maintenance i industri.

Input: vibr.0.8g, 1200h
→ Gjenstår: 340 timer

Klassifisering vs. regresjon — side om side

Klassifisering Regresjon
Spørsmålet Hvilken kategori? Hvilken verdi?
Output Katt / Hund / Spam 3,2 mill kr / 47 kWh
Medisinsk Frisk eller syk? Antall dager til utskrivning?
Industri Feil eller normalt? Timer til neste feil?

05 · Algoritmene

De viktigste verktøyene

Maskinlæring er ikke én algoritme — det er en hel verktøykasse. Her er de mest brukte, med intuitive forklaringer på hva som skjer under panseret.

Pels lang? Nei Ja Ører spisse? Stor? Katt Hund
Beslutningstrær

Stiller ja/nei-spørsmål frem til et svar. Enkelt å forstå og forklare for ikke-teknikere. Enkelttrær er svake — men de blir kraftfulle i ensembler.

Katt Katt Hund Katt Katt KATT (4-1) 100 TRÆR STEMMER
Random Forest

Hundrevis av beslutningstrær som stemmer. Flertallet vinner. Langt mer robust enn ett enkelt tre — håndterer støy og overflate godt.

Tre 1 Feil: 40% Tre 2 Feil: 22% Tre 3 Feil: 9% → ... LÆRER AV FEIL Hvert tre retter feilene til forrige
Gradient Boosting (XGBoost)

Bygger trær sekvensielt — hvert nytt tre retter feilene til det forrige. Svært kraftfullt på strukturert tabelldata. Vinner de fleste Kaggle-konkurranser med strukturert data.

50% Input-verdi → 0 1 NEI JA
Logistisk regresjon

Bruker en S-kurve (sigmoid) til å mappe input til en sannsynlighet mellom 0 og 1. Enkel, rask og svært tolkbar. En klassiker for binær klassifisering.

Nevrale nettverk (dyplæring)

Mange lag av noder koblet sammen. Kraftfullt på bilder, lyd og komplekse mønstre. Krever mye data og regnekraft — men kan løse problemer klassisk ML ikke klarer.

KATT (3-1)
K-Nearest Neighbors

«Du er lik dine naboer.» Finner de K nærmeste punktene i treningsdataen og stemmer. Enkel idé — men langsom på store datasett siden den ikke trener en modell.

💡 Klassisk ML vs. dyplæring

Klassisk ML (beslutningstrær, gradient boosting, logistisk regresjon) fungerer best på strukturert tabelldata — og krever langt mindre data og regnekraft. Dyplæring er nødvendig for bilder, lyd og komplekse mønstre — men koster tilsvarende mer. For de fleste forretningsproblemer er klassisk ML det smarte valget å starte med.

06 · Bruksområder

Den usynlige motoren

Klassisk AI er motoren bak tusenvis av systemer du bruker daglig — uten at du tenker over det. Fra kredittkortgodkjenning til diagnosehjelp og fabrikkovervåking.

🔧
Prediktivt vedlikehold

Forutsi maskinsvikt fra sensordata før det skjer. Fra reaktivt vedlikehold til condition-based. Kobling til anomaly detection-saken.

Regresjon + Anomali
💳
Kredittvurdering

Historiske betalingsmønstre, inntekt og gjeld klassifiseres til risikoprofil. Raskere og mer konsistent enn manuell saksbehandling.

Klassifisering
Energiprediksjon

Forutsi strøm- og varmebehov time for time. Gjør det mulig å handle energi smartere og redusere kostnader i bygg og industri.

Regresjon
🏥
Medisinsk diagnose

Identifisere tumorer i røntgen og MR-bilder. CNN-modeller matcher eller overgår radiologers nøyaktighet på spesifikke oppgaver.

Dyplæring (CNN)
🏭
Kvalitetskontroll

Kameraer på produksjonslinjen klassifiserer produkter som ok eller defekt. Raskere og mer konsistent enn menneskelig inspeksjon.

Klassifisering (CNN)
📦
Etterspørselsprognose

Forutsi salgsvolum, lagerbehov og produksjonskapasitet. Brukes av retailere, logistikkselskaper og produsenter verden over.

Regresjon (tidsserier)

07 · Begrensninger

Det modellen ikke forteller deg

Klassisk AI er kraftfullt — men det er ikke magi. Det er viktig å forstå hva disse modellene ikke kan gjøre, særlig når beslutninger basert på dem får reelle konsekvenser.

🐘
Distribusjonsskift

Modellen feiler stille utenfor det den er trent på. Den vet ikke at den ikke vet — og varsler deg ikke. Elefanten klassifiseres som hund uten tvil.

🔗
Korrelasjon ≠ kausalitet

Modellen finner mønstre som henger sammen med et utfall — ikke mønstre som forårsaker det. Å handle blindt på korrelasjoner kan gi svært dårlige beslutninger.

🏷️
Krever merket data

For klassifisering og regresjon trenger du riktige svar på treningsdataen. Labels må være nøyaktige — feil i labels er en av de vanligste årsakene til dårlige modeller.

Data eldes

Verden endrer seg. En modell trent på data fra 2019 kan misse nye mønstre fullstendig. Modeller i produksjon må overvåkes og retrenes jevnlig.

📦
Én modell per oppgave

I motsetning til LLM-er er klassisk AI lite fleksibel. En modell som skiller katter fra hunder kan ikke i neste øyeblikk vurdere kredittrisiko. Én modell, én oppgave.

🎲
Bias i data

Skjevheter i treningsdataen reproduseres i modellen. Historisk diskriminering i ansettelsesdata gir en modell som diskriminerer videre — nå automatisk og i stor skala.

💡 Det viktigste poenget

Ingen modell er bedre enn dataen den er trent på. Det er der arbeidet egentlig starter — ikke med algoritmer og arkitekturer, men med å forstå hvilke data du faktisk har, og om de representerer virkeligheten du vil løse for.

08 · Valg av tilnærming

ML, dyplæring — eller LLM?

Det er fristende å tenke at store språkmodeller løser alt. Men de er dyre, vanskelig å kontrollere presist, og overkill for de fleste forretningsproblemer med strukturerte data.

Situasjon Maskinlæring Dyplæring LLM
Strukturert tabelldata ✓ Foretrukket Overkill Ikke egnet
Bilder, lyd, video Begrenset ✓ Foretrukket Mulig, men dyrt
Fri tekstgenerering Ikke egnet Begrenset ✓ Foretrukket
Lite datasett (<100k rader) ✓ Ideelt Trenger mer data Trenger mye mer
Tolkbarhet / regulatoriske krav ✓ Godt egnet Vanskelig Svart boks
Rask og billig drift i produksjon ✓ Svært effektivt Krever GPU Dyrt per kall
Åpne spørsmål og dialog Ikke egnet Ikke egnet ✓ Foretrukket

Har du et avgrenset problem med strukturerte data? Start med klassisk maskinlæring. Har du bilder eller komplekse signaler? Vurder dyplæring. Trenger du å forstå og generere naturlig tekst? Da er LLM riktig verktøy — men husk at den er dyr og vanskelig å kontrollere presist.

Hva gjør en modell god? Svaret er alltid: data

Den viktigste faktoren for en god modell er ikke algoritmen. Det er dataen den trenes på. Garbage in, garbage out er klisjé fordi det er sant.

🎯
Representativt

Treningsdataen må speile virkeligheten — inkludert kanttilfeller og sjeldne hendelser.

📦
Volum

Nok eksempler av hvert tilfelle. Dyplæring trenger særlig mye — ML klarer seg med langt mindre.

🏷️
Riktig merket

Labels (riktige svar) må være nøyaktige. Feil i labels er den vanligste årsaken til dårlige modeller.

📅
Fersk

Verden endrer seg. En modell trent på gammel data kan misse nye mønstre helt.

Oppsummering

Presist, effektivt —
og riktig verktøy for jobben

Klassisk maskinlæring er ikke utdatert teknologi. Det er ryggraden i de aller fleste AI-systemer som faktisk kjører i produksjon. Styrken er presisjon og effektivitet på avgrensede problemer. Svakheten er at modeller feiler stille utenfor sitt domene — og at de finner korrelasjoner, ikke årsaker. Velg riktig verktøy for riktig jobb.

dataviter.no