Pillar page

Softwareudvikling med AI

En afprøvet proces til automatisering af udvikling med et team af AI-agenter — fra kravanalyse, gennem kodning og flerlags test (unit, integration, E2E, security, performance), helt frem til produktionsdeployment med komplet audit trail.

Vi har et team af specialiserede AI-agenter, som deltager i hvert trin af softwareudviklingens livscyklus — fra kravanalyse, gennem arkitekturdesign, kodning og flerlags test, helt frem til code review, dokumentation og deployment med komplet audit trail.

På den måde bygger vi vores egne ESKOM AI-produkter — multi-agent-platformen HybridCrew, Compliance-auditsystemet, KRS+CRBR-mikroservicen og en række integrationer. Vi anvender den samme proces i kundeprojekter: både ved bygning af nye mikroservices og ved legacy-modernisering.

Denne artikel beskriver, hvordan det fungerer i praksis: hvilke opgaver agenterne overtager, hvilke der forbliver hos mennesker, hvilke test vi kører, og hvorfor denne proces er gentagelig på tværs af projekttyper.

Hvorfor automatisere udvikling?

En klassisk softwareudviklingscyklus (analyse → kode → test → review → deploy) tager typisk 2-4 uger for en middelstor feature i et modent team. Det meste af tiden går til gentagne opgaver: skrivning af boilerplate, generering af unit tests, gennemgang af ændringer, opdatering af dokumentation, generering af databasemigreringer. Alle er velegnede til automatisering.

Målet med vores proces er enkelt: to-tre personer med AI-agenter leverer den værdi, et team på 8-10 personer tidligere leverede — uden udbrændthed, med højere kvalitet (flere test, bedre code review, komplet dokumentation) og kortere time-to-market.

Dette er ikke „AI vil erstatte udviklere". Det er „udviklere med AI vil erstatte udviklere uden AI". Erfarne ingeniører forbliver uundværlige — de designer arkitektur, træffer strategiske beslutninger, gennemgår komplekse ændringer. AI-agenter overtager rutinen.

Seks trin i processen

Pipeline fra krav til produktion. Hvert trin udføres af specialiserede AI-agenter, mens et menneske superviserer og godkender nøglebeslutninger.

1

Kravanalyse og arkitektur

AI-agenter analyserer forretningsdokumentation, kundesamtaler (fra transskriptioner) og eksisterende kode. De foreslår mikroservicearkitektur, databaseskema, endpoint-liste og rettighedsmodel. Et menneske (CTO/arkitekt) gennemgår og godkender forslaget, før kodningen starter.

2

Kodning (TDD)

Først test, så implementering. En backend-agent skriver API i FastAPI/Express, en frontend-agent skriver React-komponenter. Hver ændring = separat pull request med en klar commit-besked. Kodningsstandarder (Black, ESLint, Prettier) håndhæves automatisk.

3

Flerlags test

Unit (pytest, Jest), integration (testcontainers med ægte PostgreSQL), E2E (Playwright), UI snapshot, security (OWASP, gitleaks, bandit), performance (k6/locust), accessibility (axe). Hver PR kører den fulde pipeline — en fejlende test blokerer merge.

4

Code review med AI

SecurityReviewer-agenten scanner for OWASP Top 10, QualityReviewer-agenten kontrollerer læsbarhed og mønstre, ArchitectureReviewer-agenten verificerer sammenhæng med resten af systemet. Tvivlsomme steder eskaleres til mennesker.

5

Dokumentation og CHANGELOG

Hver ændring i logik = versionsbump + indlæg i CHANGELOG.md i Keep a Changelog-format. API-dokumentation (OpenAPI/Swagger) genereres automatisk. CLAUDE.md opdateres efter hver session med nye erfaringer.

6

Deployment med Change Request

Deployment går altid gennem Git (ALDRIG direkte scp). Først testmiljøet med Playwright-verifikation, derefter produktion efter CR-godkendelse. Deployment-scriptet indeholder en rollback-plan (<5 min) og health checks.

Hvad får virksomheden ud af det?

Tusindvis af automatiserede test

Hvert produktionsprojekt har fra flere tusinde til titusinder af test — unit, integration, E2E, security, performance. Regressioner fanges i CI, før de når brugerne.

Komplet audit trail

Hver ændring i kode, database eller konfiguration registreres: Git, audit log i databasen, CHANGELOG, Change Request. Opfylder krav i ISO 27001, EU AI Act og GDPR.

Skalerbart team

To-tre personer med AI-agenter leverer den værdi, et team på 8-10 personer tidligere leverede. Uden udbrændthed, med højere kvalitet og kortere tidslinjer.

Eskalering til stærkere modeller

LLM-routing vælger den rette model til hver opgave: små ændringer — lokal Ollama (omkostning $0), kompleks arkitektur — Claude Opus. Optimering af omkostninger og kvalitet i ét.

Gentagelighed og standarder

Hvert projekt følger samme standarder: feature branch workflow, squash merge, Conventional Commits, CHANGELOG, EU AI Act, GDPR. En ny udvikler forstår strukturen på første dag.

Sikkerhed by default

Gitleaks på pre-commit + CI, hemmeligheder i HashiCorp Vault, private repositories, Keycloak SSO, Tailscale VPN til interne tjenester. Ingen kompromisser med hastigheden.

Flerlags test — kvalitetens fundament

Hver ændring i produktionskode går gennem en komplet testpipeline. Uden undtagelser — selv en tastefejl i en kommentar udløser CI, fordi testpipelinen er indlejret i en Git hook, ikke i udviklerens politiske beslutning.

  • Unit tests: pytest, Jest, vitest. Dækker enkelte funktioner og klasser. >80% dækning på kritisk kode.
  • Integrationstest: testcontainers med rigtige instanser af PostgreSQL, Redis, Vault. Mocks kun for eksterne tredjeparts-API'er.
  • End-to-end (E2E) test: Playwright i Firefox (standard), Chrome (valgfrit). Simulerer hele brugerstier: login → handling → verifikation.
  • UI-test (snapshot, accessibility): Playwright + axe-core. WCAG 2.0 AA som baseline, Lighthouse 100/100/100/100 som mål.
  • Sikkerhedstest: OWASP Top 10 (semgrep, bandit, eslint-plugin-security), gitleaks (scanning af hemmeligheder på pre-commit og CI), trivy (scanning af Docker-images).
  • Performance-test: k6 eller locust til load test, kontrol af p95/p99 responstid under belastning.
  • Regressionstest: hele suiten kører før hver produktionsdeployment. Enhver indrapporteret bug bliver til en regressionstest.
  • Smoke test: et minimalt sæt på 5-10 test, der køres efter produktionsdeployment (kom applikationen overhovedet op).
  • Acceptancetest: forretningstest (Cucumber/Gherkin), der bekræfter, at kravet er opfyldt.

Fejlende test = blokeret merge. Uden undtagelser. Hvis en test er „flaky" (ustabil), analyserer en diagnostisk agent årsagen og reparerer testen eller koden, men fjerner aldrig testen uden en menneskelig beslutning.

Typiske anvendelsestilfælde

De mønstre, vi anvender oftest. Hvert kommer med sit eget sæt agenter, værktøjer og skabeloner. Time-to-value måles i uger, ikke måneder.

Legacy-modernisering

  • Gammel monolitisk applikation (PHP/.NET, ingen test, svær at vedligeholde)
  • Agenter opdeler monolitten i mikroservices (inkrementel proces, uden nedetid)
  • Genererer karakteristik-tests (capture aktuel adfærd) før refaktorering
  • Datamigrering med komplet audit trail og rollback-plan

Ny enterprise-mikroservice

  • Specifikation som input (Jira-ticket, PRD-dokument, mødetransskription)
  • Arkitektur → kode → test → review → deploy på 2-3 uger
  • Integration med eksisterende SSO (Keycloak), audit log, monitoring
  • Fuld overensstemmelse med EU AI Act og GDPR fra første linje kode

Systemintegration

  • Forbindelse af ERP, CRM, KRS, Microsoft Graph, IBM, Cisco, eksterne partnere
  • Agenter skriver adaptere, mapninger, retry/backoff, idempotens
  • Integrationstest på rigtige endpoints (sandbox-API)
  • Monitoring (Prometheus + Grafana) og alarmer (Sentry) tilkoblet automatisk

Multi-tenant-platforme

  • Multi-klient SaaS med fuld dataisolation (per-tenant schema eller row-level security)
  • Automatiseret kundeonboarding (Keycloak-provisionering, database, roller)
  • Billing baseret på SSO Billing SDK (token usage tracking, fail-open)
  • Compliance: GDPR, ISO 27001, EU AI Act klar til audit

Sammenligning: klassisk team vs. proces med AI

AspektKlassisk team (8-10 personer)Team med AI-agenter (2-3 personer)
Time-to-market (gennemsnitlig feature)2-4 uger3-7 dage
Testdækning40-60% (hvis teamet har tid)>80% som standard (test genereres sammen med kode)
Code review1 person, gennemsnitligt 30-60 min3 agenter (security, quality, architecture) + menneske ved komplekse ændringer
DokumentationOfte ufuldstændig, „tilføjet senere"Genereret sammen med kode (OpenAPI, README, CHANGELOG)
Audit trailGit historyGit + audit log i database + CHANGELOG + Change Request
SkaleringLineær (flere personer = højere kommunikationsomkostning)Ikke-lineær (flere agenter = samme antal supervisorer)
Compliance (EU AI Act, GDPR, ISO 27001)Ofte ekstern audit efter faktumIndbygget i processen fra første linje kode

Ofte stillede spørgsmål

Hvad er automatiseret softwareudvikling med AI?
Det er en proces, hvor specialiserede AI-agenter deltager i hvert trin af softwareudviklingens livscyklus: fra kravanalyse, gennem arkitekturdesign, kodning, automatiserede test (unit, integration, E2E, security, performance, regression), helt frem til code review og produktionsdeployment. Mennesker fører fortsat tilsyn med processen og træffer nøglebeslutninger, men rutineopgaver (kodning, generering af test, refaktorering, dokumentation) udføres af AI-agenter med opretholdelse af aftalte kvalitetsstandarder.
Hvordan adskiller denne proces sig fra klassisk programmering med Copilot?
Copilot er autofuldførelse — den hjælper med at skrive enkelte linjer kode. Softwareudvikling med AI er fuld orkestrering: én agent planlægger arkitektur, en anden skriver kode, en tredje skriver test, en fjerde laver code review, en femte deployer. Hver har sin egen specialisering, episodisk hukommelse (lærer af tidligere projekter), værktøjer og kontekst. Resultat: en betydeligt større skala af automatisering end med en enkelt Copilot, samtidig med at enterprise-standarder bevares (test, security, audit trail).
Hvilke typer test kører denne proces?
Alle de slags test, som modne udviklingsteams anvender: unit, integration, end-to-end (E2E), UI (Playwright), sikkerhed (OWASP Top 10, gitleaks), performance (load), regression, smoke og acceptance. Test skrives før eller sideløbende med koden (TDD), og hver ændring skal bestå den fulde pipeline.
Deployer AI selv kode til produktion?
Nej — ikke automatisk. Produktionsdeployments kræver en godkendt Change Request (CR) og en menneskelig beslutning. AI-agenter forbereder ændringsdokumentation, kører regressionstest, genererer deployment-scripts med rollback-planer, men den endelige produktionsudrulning kræver operatørens godkendelse. Denne regel er bevidst — den minimerer risikoen for uventede konsekvenser og bevarer en komplet audit trail.
Fungerer denne proces til enterprise-projekter?
Ja. Vi anvender den i vores egne produkter, herunder multi-agent-platformen HybridCrew, consulting-platformen med SSO, PostgreSQL-baserede mikroservices, integrationer med eksterne systemer (KRS, MS Graph, IBM, Keycloak). Hvert projekt har sin egen CI/CD-pipeline, dev/test/prod-miljøer, monitoring og audit log. Processen skalerer fra en enkelt mikroservice til en platform med mange containere.
Hvor lang tid tager det at indføre denne proces i vores virksomhed?
Det afhænger af konteksten. For et lille team (1-3 udviklere) tager integration med eksisterende repository og CI/CD-pipeline typisk 2-4 uger: audit, agentkonfiguration, tilpasning til kodningsstandarder, oplæring. For større organisationer tager pilotprojekter (ét team, én mikroservice) 6-8 uger, hvorefter der følger gradvis udvidelse til flere teams.
Hvad med sikkerheden af kildekoden?
Kundens repositories sendes aldrig til eksterne tjenester uden udtrykkelig accept. Som standard kører hele processen (AI-agenter, LLM-modeller, vektordatabase, audit log) i kundens infrastruktur eller i den private ESKOM AI-cloud med fuld isolation. Hemmeligheder håndteres via HashiCorp Vault, koden scannes af gitleaks før hver commit, og alle repositories er som standard private.
Vil I erstatte vores udviklingsteam?
Nej. Erfarne udviklere er uundværlige — de designer arkitektur, træffer beslutninger, gennemgår komplekse ændringer, løser usædvanlige problemer. AI-agenter overtager gentagne, automatiseringsvenlige opgaver: skrivning af boilerplate, generering af test, dokumentation, refaktorering, code review i første lag. Målet: to-tre personer med AI leverer den værdi, et team på 8-10 personer tidligere leverede — uden udbrændthed, med højere kvalitet og fuld audit trail.
Hvad koster softwareudvikling med AI?
Prissætning er altid projektspecifik og afhænger af skala, afregningsmodel (platformsabonnement vs. dedikeret projekt), de krævede integrationer og om agenterne kører på lokale LLM-modeller (Ollama på kundens GPU — lavere driftsomkostning) eller i skyen (Anthropic, OpenAI — højere fleksibilitet). I piloter sigter vi efter at opnå return on investment i det første kvartal efter fuld lancering.
Hvilke typiske signaler viser, at en virksomhed er klar til denne proces?
De bedste resultater kommer fra teams, der allerede har: et versionsstyret repository (Git), definerede kodningsstandarder, en basal CI/CD-pipeline, klart dokumenterede krav (Jira/Linear/egen løsning) og en code review-kultur. Manglen på ét af disse blokerer ikke udrulningen — vi starter da med audit og forberedelse af fundamentet. De mindst modne er organisationer uden versionsstyring eller med produktionskode, som ingen tester.

Klar til en pilot?

Vi starter med audit af den eksisterende proces og en pilot på en valgt mikroservice. Første resultater synlige inden for 2-4 uger. Ingen forpligtelse til flerårige kontrakter.