Sådan køber du AI-udvikling (Uden at betale for PowerPoint)
Markedet for "AI-konsulenter" i Danmark er oversvømmet. Problemet for de fleste IT-chefer, CTO'er og driftansvarlige er, at 90 % af branchen sælger workshops, "inspirationsoplæg" og generiske AI-strategier.
Men virksomheder med reel kompleksitet har ikke brug for et inspirationsoplæg om ChatGPT. De har brug for at få automatiseret konkrete workflows. De har brug for kode, der kører stabilt i deres eksisterende infrastruktur.
Hvis du leder efter en AI-udvikler eller konsulent i Danmark, er her den no-bullshit, arkitektoniske guide til, hvad du egentlig skal købe — og hvad du skal undgå.
Myten om "AI-strategien"
Mange konsulenthuse vil gerne sælge et "forløb". Først en modenhedsanalyse, så en proof-of-concept, og til sidst en "transformation". Det er spild af tid. AI er ikke magi; det er bare et nyt API, der kan parse ustruktureret data.
Det rigtige køb: Led efter en partner, der starter i jeres API'er og databaser, ikke i et strategideck. Rigtig AI-udvikling handler om at finde den manuelle "copy-paste"-friktion i organisationen, bygge en autonom agent i TypeScript (f.eks. med Vercel AI SDK), tvinge den til at spytte valideret JSON ud (via Zod), og skyde det direkte ind i jeres ERP eller CRM.
name: Production Deployment on: push: branches: [ "main" ] jobs: test-and-eval: runs-on: ubuntu-latest steps: - uses: actions/checkout@v4 # Kør statisk type-check på Zod schemas - name: TypeScript Check run: npm run typecheck # Kør AI Evals for at forhindre regressions i LLM'en - name: Run Prompt Evaluations run: npm run evals:prod env: ANTHROPIC_API_KEY: ${{ secrets.ANTHROPIC_KEY }} deploy: needs: test-and-eval runs-on: ubuntu-latest steps: - name: Deploy to Vercel/Cloudflare Edge run: npx wrangler pages deploy dist --production
# Infrastructure as Code (Terraform) for Agent Layer resource "cloudflare_worker_script" "agent_middleware" { name = "erp-triage-agent-prod" content = file("dist/worker.js") account_id = var.cf_account_id # D1 Database til logging (Langfuse/Observability fallback) d1_database_binding { name = "DB" database_id = cloudflare_d1_database.metrics.id } # Secrets håndteres deterministisk secret_text_binding { name = "ERP_API_KEY" text = var.erp_api_key } } resource "cloudflare_d1_database" "metrics" { name = "agent_telemetry_db" account_id = var.cf_account_id }
Hvordan man drifter non-deterministisk software
Det største problem med sprogmodeller (LLM'er) er, at de er non-deterministiske. Du kan give dem det samme input to gange og få to forskellige outputs. Det er et mareridt for klassisk softwarearkitektur.
En dygtig AI-konsulent taler ikke om, hvor klog modellen er. De taler om, hvordan de bygger hegn omkring den. Når du hyrer ekstern hjælp til AI, skal du kræve svar på:
- Schema Validation: Hvordan sikrer vi, at agenten ikke opfinder felter, der får vores database til at crashe? (Svar: Strict Structured Outputs og runtime validering via Zod).
- Distributed Tracing & Observability: Hvad gør vi, når noget fejler i produktion? (Svar: Et normalt stack-trace er ikke nok. Vi instrumenterer alt med OpenTelemetry, så I f.eks. via Langfuse eller Datadog kan se præcis hvilken prompt der blev sendt, hvilke tools modellen kalder, token-forbrug pr. session og latency-vandfald).
- Human-in-the-loop (HITL): Hvad sker der, når modellen er usikker på et workflow? (Svar: Modellen evaluerer sin egen konfidens. Falder den under en fastsat tærskel (f.eks. 95%), eskaleres sagen til et menneske via en webhook til Zendesk/Jira).
Hvad får du faktisk udleveret? (Handovers)
Et Python-script i en Jupyter Notebook er ikke enterprise-software. Når samarbejdet med en AI-konsulent slutter, skal jeres eget interne IT-team kunne overtage driften problemfrit. Stil krav til jeres handover:
- Infrastructure as Code (IaC): Løsningen skal deployes via f.eks. Terraform, Cloudflare Wrangler eller lignende, så infrastrukturen er versionsstyret.
- CI/CD Pipelines: GitHub Actions eller GitLab CI, der automatisk kører evals (tests af LLM-output), bygger og deployer.
- Type Safety: Hele backenden skal være skrevet i strengt typet sprog (TypeScript, Rust, Go) for at minimere runtime-fejl, når API'er ændrer sig.
Økonomi: Hvad koster det i Danmark?
Glem fakturering pr. time uden loft, og glem gigantiske fastpris-projekter, hvor kravspecifikationen er forældet, inden koden er skrevet.
I mid-market segmentet (virksomheder med 25 mio. - 1 mia. DKK omsætning) opererer seriøse, uafhængige AI-specialister ofte i retainers eller sprints. Et typisk, intensivt udviklingsforløb for at bygge, teste og deploye et agent-lag i produktion ligger ofte i niveauet 25.000–50.000 DKK om måneden over 1 til 3 måneder.
Hvis prisen er markant lavere, køber du sandsynligvis en overbygning på Zapier/Make bygget af en juniorprofil. Hvis prisen er markant højere (som hos de store huse), betaler du for account managers, kontorlokaler og powerpoints.
Hvor Frobert passer ind
Hos Frobert AI bygger vi software, ikke slide-decks. Vi fungerer som en ekstern, højt specialiseret task-force for IT-chefer og CTO'er, der har brug for at få løst komplekse integrationsproblemer med autonome agenter.
Vi koder i TypeScript, vi bygger på Cloudflare/AWS/Vercel, vi sikrer streng data-validering, og vi går i produktion på uger, ikke år.