Du har skrevet fremragende indhold. Dine tekster er velresearchede, velskrevne og præcist målrettet de søgeord dine kunder bruger. Alligevel rangerer siden ikke. Google finder den ikke. Eller den rangerer, men langsommere end konkurrenterne. Eller den vises, men med en elendig klikrate fordi ingen rich results udløses.
Årsagen er næsten altid det samme: det tekniske fundament er ikke i orden. Teknisk søgemaskineoptimering er alt det der sker under motorhjelmen — det din besøgende aldrig ser, men som Google bruger til at vurdere om din side fortjener at rangere øverst. Indhold er møblerne. Teknisk SEO er fundamentet og bygningskonstruktionen. Ingen vil bo i et hus med råddent fundament, uanset hvor flotte møblerne er.
Ifølge en analyse fra Semrush har 59% af alle analyserede hjemmesider mindst ét kritisk teknisk SEO-problem. For mange virksomheder er teknisk SEO det lavest hængende frugt — en investering der fjerner barrierer der aktivt forhindrer Google i at give dig den synlighed du fortjener.
I denne guide gennemgår vi alle de vigtigste aspekter af teknisk SEO: hvad det er, hvorfor det betyder noget, og — mest afgørende — hvad du konkret kan gøre ved det. Vi er et SEO-bureau i Aarhus der arbejder med teknisk SEO dagligt, så anbefalingerne herunder er baseret på praktisk erfaring med det danske marked.
1. Hvad er teknisk SEO?
Teknisk SEO er den del af søgemaskineoptimering der handler om alt andet end indhold og links. Det er de tekniske egenskaber ved din hjemmeside der afgør om søgemaskiner kan finde, forstå, indeksere og rangere dine sider korrekt.
For at forstå teknisk SEO er det nyttigt at kende Googles tre-trinsproces: crawling, indexering og ranking. Googlebots crawlere besøger din hjemmeside og følger links fra side til side (crawling). De analyserede sider gemmes i Googles enorme database (indexering). Når nogen søger, sorterer algoritmen de indexerede sider efter relevans og kvalitet (ranking). Teknisk SEO handler primært om at fjerne barrierer i de to første trin — og om at optimere de signaler der påvirker det tredje.
Tre domæner i SEO: On-page SEO = dit indhold og dine keywords. Off-page SEO = backlinks og ekstern autoritet. Teknisk SEO = fundamentet der muliggør begge de andre. Du kan sagtens rangere med svagt teknisk fundament, men du vil aldrig nå dit fulde potentiale.
Teknisk SEO dækker bl.a. over: sidehastighed og Core Web Vitals, crawling-styring via robots.txt og sitemaps, canonical tags og duplicate content-håndtering, struktureret data og Schema.org-markup, HTTPS og sikkerhedsheaders, URL-struktur og intern linktopologi samt mobile-first optimering. Vi gennemgår alle disse områder i detaljer i de følgende afsnit.
Et godt sted at starte er on-page SEO — som teknisk SEO komplementerer — og den bredere forståelse af søgemaskineoptimering som helhed.
2. Core Web Vitals: Googles sideoplevelses-signaler
Core Web Vitals er Googles officielle målinger af brugeroplevelsen på din side. De er ikke blot vejledende — de er direkte rankingfaktorer. Google opdaterede i 2023 INP (Interaction to Next Paint) som erstatning for FID (First Input Delay), og det er de tre nuværende målinger der tæller:
| Metrik | Hvad måler den | God | Skal forbedres | Dårlig |
|---|---|---|---|---|
| LCP Largest Contentful Paint |
Tid til det største synlige element loader | Under 2,5s | 2,5s – 4,0s | Over 4,0s |
| INP Interaction to Next Paint |
Reaktionstid ved brugerinteraktion | Under 200ms | 200ms – 500ms | Over 500ms |
| CLS Cumulative Layout Shift |
Visuel stabilitet — hopper indholdet rundt? | Under 0,1 | 0,1 – 0,25 | Over 0,25 |
Sådan tester du dine Core Web Vitals
Det nemmeste sted at starte er Google PageSpeed Insights (pagespeed.web.dev) — gratis, kræver ingen opsætning og giver dig en samlet score plus specifikke anbefalinger. Tast din URL ind og kig særligt på "Field data" (rigtige brugeres data fra Chrome) frem for "Lab data" (simulerede tests). Field data er det Google bruger til ranking.
I Google Search Console finder du Core Web Vitals-rapporten under "Oplevelse" — den viser dig hvilke specifikke URL-grupper der har problemer, og om det er på mobil eller desktop. Det er her du ser den samlede sundhed på tværs af hele dit site.
Praktiske tips til at forbedre dine scores
Det største element er typisk et hero-billede. Brug WebP-format, korrekt dimensionering (ikke større end vist), og tilføj loading="eager" og fetchpriority="high" attributter til hero-billedet specifikt.
Brug <link rel="preload"> til kritiske ressourcer og font-display: swap for web fonts. Tilføj <link rel="preconnect"> til externe font-servere som Google Fonts for at reducere forbindelsestid.
Den hyppigste årsag til høj CLS er billeder uden eksplicitte width og height attributter. Browseren reserverer ikke plads til billedet og skubber indhold rundt når det loader. Tilføj altid begge attributter.
Tung JavaScript der blokerer main-thread er hovedårsagen til dårlig INP. Brug defer og async attributter på ikke-kritiske scripts. Fjern ubrugte tredjepartsscripts (chat-widgets, tracking-pixels der ikke bruges).
3. Crawling og indexering
Før Google kan rangere din side, skal den finde den og gemme den. Det lyder banalt, men det er her mange virksomheder støder på problemer — ofte uden at vide det.
robots.txt: Hvad det er og de typiske fejl
Filen robots.txt ligger i roden af dit domæne (fx gezar.dk/robots.txt) og fortæller søgemaskine-crawlere hvilke dele af dit site de må og ikke må besøge. Den er ikke en sikkerhedsfunktion — den er en aftale der kan ignoreres af ondsindede crawlere — men alle seriøse søgemaskiner respekterer den.
Den klassiske fejl er at blokere for meget. Vi har set sites der ved en fejl blokerede hele sitet med Disallow: / — og en hjemmeside der ikke kan crawles, kan ikke rangere. Tjek din robots.txt-fil med jævne mellemrum og verificer at du ikke ved en fejl blokerer vigtige sider eller mapper. Google Search Console advarer dig hvis din robots.txt blokerer indexerede sider.
Typisk robots.txt for en standard hjemmeside:
User-agent: *
Disallow: /admin/
Disallow: /checkout/
Sitemap: https://ditdomaene.dk/sitemap.xml
Bloker kun sider der ikke bør indexeres — admin-panel, checkout, tak-sider og søgeresultat-sider med parameters.
XML Sitemap: Din guide til Google
En XML sitemap er en liste over alle de sider på dit site du ønsker indexeret. Den fortæller Google præcist hvad der eksisterer, og giver hints om prioritet og opdateringsfrekvens. En sitemap garanterer ikke indexering — Google kan stadig vælge at ignorere sider der vurderes som lavkvalitet — men den sikrer at Google i det mindste kender til alle dine sider.
- Inkluder kun kanoniske URLs (ingen duplicate-URLs med parameters)
- Inkluder alle vigtige sider: services, blog-artikler, landing pages, produktsider
- Undlad at inkludere sider med
noindex— det er forvirrende for crawlere - Hold sitemappen opdateret — tilføj nye sider løbende
- Indsend sitemappen i Google Search Console under "Sitemaps"
- For store sites (1.000+ sider): overvej en sitemap-index-fil med multiple sitemaps
Canonical tags: Undgå duplicate content-problemer
Duplicate content opstår når samme eller meget lig indhold er tilgængeligt på flere URLs. Det kan ske af mange grunde: www vs. non-www, HTTP vs. HTTPS, URL-parametre fra tracking eller filtrering, pagination, eller bevidste duplikerede sider. Canonical tags (<link rel="canonical" href="...">) fortæller Google hvilken version af siden der er "originalen" og bør have al link-juice og ranking-kredit.
Canonical tags er ikke kun relevant for store sites med mange sider. Selv en lille hjemmeside bør have en canonical tag på alle sider — det er en nem og effektiv forsikring mod utilsigtede duplicate content-problemer.
Crawl budget: Vigtigt for store sites
For de fleste mindre og mellemstore hjemmesider er crawl budget ikke et problem — Google crawler simpelthen alle sider. Men for store webshops med tusindvis af produktsider, filtreringsparametre og varianter, er crawl budget et reelt emne. Google bruger kun en vis mængde ressourcer på at crawle dit site. Spilder den dem på sider uden værdi — filtrerede søgeresultater, parameter-URLs, tomme kategorisider — bruger den færre ressourcer på dine vigtige sider.
4. Sidestruktur og URL-arkitektur
En god URL-arkitektur hjælper både brugere og søgemaskiner med at forstå dit site. Det handler om to ting: individuelle URLs der er logiske og læsbare, og en overordnet hierarkisk struktur der er konsistent og nem at navigere.
URL best practices
- Hold URLs korte og beskrivende:
/blog/teknisk-seofrem for/blog/artikel?id=4721&cat=seo - Brug bindestreger (ikke underscore) til at adskille ord i slugs
- Undgå æ, ø, å i URL-slugs — brug ae, oe, aa eller engelske equivalenter
- Undgå dybe URL-hierarkier: max 3-4 niveauer fra roden er ideelt
- Brug lowercase konsekvent — store bogstaver i URLs kan skabe duplicate content
- Undgå unødvendige parametre og session-IDs i URLs til vigtige sider
Flad hierarki: Tre klik fra forsiden
En tommelfingerregel der holder i praksis: alle vigtige sider bør være tilgængelige maksimalt tre klik fra forsiden. Jo dybere en side er begravet i sitestrukturen, jo svagere signal sender du til Google om dens vigtighed. Det skyldes dels at crawlere bruger link-dybde som en proxy for prioritet, og dels at intern link-juice fortyndes med hvert niveau.
Det praktiske implikation er at du bør linke til vigtige sider fra din navigation, din forside og dine mest besøgte sider — ikke kun via en enkelt sti i sitestrukturen.
Breadcrumbs med BreadcrumbList schema
Breadcrumbs er navigationslinks øverst på undersider der viser den hierarkiske sti til den aktuelle side — fx "Forside › Blog › Teknisk SEO". De gavner brugervenlighed og giver Google kontekst om sidestrukturen. Kombineret med BreadcrumbList JSON-LD schema kan de udløse breadcrumb-visning direkte i søgeresultaterne i stedet for den normale URL, hvilket øger synlighed og CTR.
5. Struktureret data (Schema.org)
Struktureret data er en standardiseret måde at fortælle søgemaskiner præcis hvad dit indhold er — ikke hvad det ligner, men hvad det er. Du implementerer det som JSON-LD script i din HTML, og det giver Google mulighed for at vise dit indhold som "rich results" i søgeresultaterne: stjernebedømmelser, priser, FAQ-accordions, opskrift-kort og meget mere.
De vigtigste Schema.org-typer for danske virksomheder
Essentielt for lokale virksomheder. Angiver navn, adresse, telefon, åbningstider, priceRange og serviceArea. Brug en specifik subtype som MarketingAgency, Restaurant eller Plumber frem for den generiske LocalBusiness.
Implementer på sider med spørgsmål-og-svar-indhold. Kan udløse FAQ-accordion direkte i søgeresultaterne og øge pladsen dit link optager markant. Særlig effektivt for service-sider og blog-artikler med FAQ-sektioner.
Til alle blog-artikler. Angiver headline, author, datePublished, dateModified og description. Hjælper Google med at forstå og validere artikelindhold, og øger sandsynligheden for optagelse i AI Overviews og andre rich features.
Kombiner med synlige breadcrumb-links på siden. Viser breadcrumb-stien i stedet for URL i søgeresultater, hvilket giver klarere kontekst og ofte højere CTR end en lang URL-streng.
Sådan tester du struktureret data
Google tilbyder gratis Rich Results Test (search.google.com/test/rich-results) — tast en URL ind og se om din strukturerede data er korrekt implementeret og hvilke rich results den er eligible for. Du kan også tjekke implementeringen i Google Search Console under "Rich results" i venstre menu. Husk: korrekt implementering er nødvendig men ikke tilstrækkelig — Google beslutter selv om rich results vises baseret på kontekst og søgning.
JSON-LD frem for Microdata: Google anbefaler JSON-LD som foretrukket implementeringsmetode for struktureret data. Det er nemmere at vedligeholde fordi det er adskilt fra HTML-indholdet, og det kan placeres i <head> eller <body> uden forskel.
AI Overviews og struktureret data
Med Googles AI Overviews — den AI-genererede sammenfatning øverst i søgeresultater — er struktureret data blevet endnu vigtigere. Sider med korrekt implementeret struktureret data, særligt FAQPage og BlogPosting, ser ud til at have statistisk højere sandsynlighed for at blive citeret. Det er endnu ikke dokumenteret videnskabeligt, men erfaringen fra praksis peger klart i den retning.
6. HTTPS, sikkerhed og HTTP headers
HTTPS er i 2026 et absolut minimum. Google har brugt HTTPS som rankingfaktor siden 2014, og siden 2018 markerer Chrome alle HTTP-sider som "Ikke sikker" med et tydeligt ikon i adresselinjen. Hvis din side stadig kører på HTTP, er det et problem der skal løses omgående — både for SEO og for brugertillid.
Sikkerhedsheaders: Lavthængende frugt
Ud over HTTPS kan du forbedre din sides sikkerhedsprofil med HTTP response headers. De fleste webservere og hostingplatforme gør det nemt at tilføje dem — i Caddy er det blot et par linjer i konfigurationsfilen:
- Strict-Transport-Security (HSTS): Tvinger browsere til altid at bruge HTTPS til dit domæne, selv hvis brugeren taster HTTP
- X-Content-Type-Options: Forhindrer MIME-type-sniffing og reducerer risikoen for visse XSS-angreb
- X-Frame-Options: Beskytter mod clickjacking ved at forhindre din side i at blive indlejret i iframes på andre sites
- Referrer-Policy: Styrer hvilke referrer-oplysninger der sendes ved navigation — god praksis for brugerprivatliv
- Permissions-Policy: Kontrollerer hvilke browser-features (kamera, mikrofon, geolocation) siden kan tilgå
Redirect chains: Minimer dem
Redirects er nødvendige — når du ændrer en URL, flytter indhold eller konsoliderer sider. Men redirect chains, hvor en redirect peger på en anden redirect der peger på endnu en redirect, er problematiske. De spilder crawl budget, introducerer forsinkelse og fortynder link-juice. Hold dine redirects direkte (301-redirect fra gammel URL til final URL) og ryd op i eksisterende chains løbende.
7. Mobile-first indexering
Siden 2019 bruger Google primært mobilversionen af din side til at indexere og rangere den. Det betyder at hvis din mobilside har andet eller mangelfuldt indhold i forhold til din desktopside, rangerer du på baggrund af mobilversionen — som kan være dårligere. Mobile-first indexering er ikke en option der kan slås til eller fra. Det er sådan Google fungerer.
Hvad du skal tjekke
- Responsivt design der fungerer korrekt på alle skærmstørrelser — tjek med Googles Mobile-Friendly Test
- Samme indhold på mobil og desktop — skjul ikke kritiske tekster bag tabs eller accordions der kun vises på desktop
- Touch targets minimum 44px × 44px — knapper og links der er for små er et brugervenligheds- og rankingproblem
- Ingen horisontalt overflow der kræver vandret scrolling — brug
overflow-x: hiddenpå bådehtmlogbody - Tekst læsbar uden zoom — minimum 16px base font-size anbefales
- Pop-ups og interstitials der dækker indholdet på mobil — Google straffer dette aktivt
Husk Googlebot-Smartphone: Sider der er blokeret af robots.txt for Googles mobilcrawler men tilgængelige for desktop-crawleren, er et alvorligt problem. Tjek specifikt i din robots.txt at du ikke utilsigtet blokerer mobile crawlere fra dele af dit site.
Core Web Vitals på mobil er vigtigst
Google Core Web Vitals-data der bruges til ranking er primært baseret på mobildata fra Chrome-brugere. Det er ikke ualmindeligt at se sider der scorer 90+ på desktop-PageSpeed Insights men kun 40-60 på mobil. Tjek altid mobilscores specifikt, og prioriter mobiloptimering frem for desktopoptimering hvis du skal vælge.
8. Teknisk SEO-checkliste
Her er en praktisk checkliste til en grundig teknisk SEO-gennemgang. Gennemgå punkterne én ad gangen — de fleste kan verificeres med de gratis værktøjer nævnt i næste afsnit.
robots.txt tillader crawling af vigtige sider. XML sitemap er oprettet og indsendt til GSC. Ingen vigtige sider blokeret med noindex ved en fejl. Ingen brudte interne links (404-fejl). HTTPS på alle sider med gyldigt certifikat.
Canonical tags på alle sider. www vs. non-www redirecter til én version. HTTP redirecter til HTTPS. URL-parametre håndteres korrekt. Ingen identiske sider med forskellige URLs uden canonical.
LCP under 2,5 sekunder. INP under 200ms. CLS under 0,1. Billeder har eksplicitte dimensioner. Hero-billeder er WebP-format med preload og fetchpriority. font-display: swap implementeret.
Responsivt design der fungerer på alle skærmstørrelser. Touch targets minimum 44px. Ingen horisontalt overflow. Samme indhold på mobil og desktop. Tekst læsbar uden zoom.
JSON-LD implementeret for relevante schema-typer. LocalBusiness på forsiden og service-sider. BreadcrumbList på undersider. FAQPage på sider med Q&A-indhold. Valideret med Rich Results Test.
Gyldigt SSL-certifikat. HSTS header aktiveret. X-Content-Type-Options header. X-Frame-Options header. Ingen mixed content (HTTP-ressourcer på HTTPS-side). Direkte redirects uden chains.
Korte, beskrivende URLs. Bindestreger i stedet for underscore. Ingen æøå i slugs. Fladt hierarki (max 3-4 niveauer). Breadcrumbs på alle undersider. Interne links til vigtige sider fra forsiden og navigation.
hreflang-tags på alle sider med sprogversioner. Bidirektionelle: da-siden peger på en, en-siden peger på da. x-default peger på primær version. hreflang i sitemap.xml. Canonical og hreflang er konsistente.
9. Værktøjer til teknisk SEO
Du behøver ikke dyre enterprise-løsninger for at lave en solid teknisk SEO-audit. Her er de mest værdifulde værktøjer — startende med de gratis:
- Google Search Console (gratis): Det vigtigste enkeltværktøj. Viser indexeringsstatus, Core Web Vitals, crawl-fejl, manuelle handlinger og performance-data. Brug det aktivt — ikke kun når noget er galt.
- Google PageSpeed Insights (gratis): Kør Core Web Vitals-test på individuelle URLs. Giver specifikke forbedringsforslag med estimerede tidsbesparelser. Husk at teste både mobil og desktop.
- Screaming Frog SEO Spider (gratis op til 500 URLs): Desktop-crawler der gennemgår dit site som Googlebot. Finder brudte links, duplicate content, manglende meta tags, redirect chains og meget mere. Uundværlig til tekniske audits.
- Rich Results Test (gratis): Googles eget værktøj til at validere struktureret data-implementering. Viser præcist hvilke rich results en side er eligible for.
- Ahrefs Site Audit (betalt): Komplet teknisk audit med prioriterede issues, trends over tid og detaljeret rapportering. Særligt værdifuld for større sites med mange sider.
- Semrush Site Audit (betalt): Alternativ til Ahrefs med bred teknisk audit-funktion. Inkluderet i Semrush-pakker der også dækker keyword research og konkurrentanalyse.
Se vores samlede oversigt over anbefalede marketing-værktøjer for yderligere anbefalinger inden for SEO, analytics og optimering.
Start altid med Google Search Console. Det er gratis, bruger rigtige data fra Google, og det er den direkte kommunikationskanal mellem Google og dig som hjemmeside-ejer. Er du ikke oprettet endnu, er det det første du bør gøre i dag — verificeringen tager kun fem minutter.
Ofte stillede spørgsmål om teknisk SEO
Vil du have et teknisk SEO-tjek?
Vi laver en grundig teknisk SEO-audit af din hjemmeside — Core Web Vitals, crawling, struktureret data, URL-arkitektur og meget mere. Du får en prioriteret liste over konkrete forbedringer uden forpligtelse.
Se vores SEO-ydelse