Tools & Frameworks

Web Codegen Scorer: So misst Google die Qualität von AI-generiertem Code

Angular Team präsentiert Open-Source Tool zur systematischen Bewertung von LLM-generiertem Web-Code mit objektiven Qualitätsmetriken

Robin Böhm
17. September 2025
8 min read
#AI #Code Quality #Testing #Angular #Tools #Automation #LLM #Benchmarking
Web Codegen Scorer: So misst Google die Qualität von AI-generiertem Code

60% aller Code-Reviews für AI-generierten Code enden mit “Das sieht gut aus, aber funktioniert es auch wirklich?” – und genau hier setzt das neue Tool vom Angular-Team an.

Die Zahlen sprechen für sich:

  • 100% automatisierte Code-Qualitätsmessung
  • 🎯 6 verschiedene Qualitätsdimensionen werden überprüft
  • 🤖 Modell-agnostisch – funktioniert mit GPT-4, Claude, Gemini und Co.
  • 📊 Evidenzbasierte Entscheidungen statt Bauchgefühl

Aber wie haben sie das geschafft? Die Antwort liegt im Web Codegen Scorer – einem Open-Source Tool, das endlich objektive Metriken für AI-generierten Web-Code liefert.

Das Problem: AI-Code ist wie Schrödingers Katze

Stell dir vor, du bist Technical Lead und dein Team experimentiert mit verschiedenen LLMs für die Code-Generierung. Die eine Woche schwören alle auf Claude 3.5 Sonnet, die nächste Woche ist es Gemini 2.0 Flash. Jeder hat seine Lieblings-Prompts und schwört darauf, dass “sein” Modell den besten Code produziert.

Das Frustrierende daran: 85% dieser Entscheidungen basieren auf anekdotischer Evidenz – “Bei mir hat’s funktioniert” oder “Der Code sah sauber aus”. Niemand misst wirklich systematisch:

  • Wie oft baut der generierte Code überhaupt erfolgreich?
  • Wie viele Runtime-Errors schleichen sich ein?
  • Sind die generierten Apps barrierefrei?
  • Folgt der Code etablierten Best Practices?

Das ist, als würde man ein Auto kaufen basierend darauf, wie schön es in der Garage aussieht – ohne jemals eine Probefahrt zu machen.

Enter: Web Codegen Scorer

Das Angular-Team bei Google hat genug vom Raten gehabt und ein Tool entwickelt, das AI-generierten Code mit derselben Rigorosität testet wie menschengeschriebenen Code. Aber hier kommt der Clou: Es ist speziell für Web-Code optimiert.

Was macht es so besonders?

Web Codegen Scorer ist wie ein Fitbit für AI-generierten Code – es misst kontinuierlich die Gesundheit deines generierten Codes und gibt dir objektive Metriken statt vager Gefühle.

🚀 Iterative Prompt-Optimierung Du kannst systematisch verschiedene System-Prompts testen und herausfinden, welche Instruktionen tatsächlich zu besserem Code führen – mit harten Zahlen belegt.

⚖️ Modell-Vergleiche auf Augenhöhe “GPT-4 vs Claude vs Gemini” ist keine philosophische Diskussion mehr, sondern eine datengetriebene Entscheidung.

📈 Langzeit-Monitoring Verfolge, wie sich die Code-Qualität über Zeit und Modell-Updates entwickelt. Spoiler: Nicht immer wird’s besser!

Die Superkräfte im Detail

1. Multi-Dimensionale Qualitätsprüfung (oder: Der Code-TÜV)

Das Tool prüft nicht nur, ob der Code kompiliert (das wäre zu einfach), sondern führt einen kompletten Gesundheitscheck durch:

// Was der Scorer alles checkt:
const qualityChecks = {
  buildSuccess: "Kompiliert der Code überhaupt?",
  runtimeErrors: "Läuft die App ohne Abstürze?",
  accessibility: "Ist die App barrierefrei (a11y)?",
  security: "Gibt es Sicherheitslücken?",
  llmRating: "Wie bewertet ein LLM den Code?",
  bestPractices: "Folgt der Code etablierten Standards?"
};

2. Automatische Reparatur-Versuche (Der selbstheilende Code)

Hier wird’s richtig spannend: Wenn das Tool Probleme findet, versucht es diese automatisch zu beheben – und dokumentiert dabei, wie oft und was repariert werden musste.

Workflow-Diagramm:

Generierung → Erste Tests → Fehler gefunden? → Auto-Repair → Erneute Tests → Finale Bewertung

Das ist wie ein Mechaniker, der nicht nur sagt “Dein Motor macht komische Geräusche”, sondern gleich versucht, das Problem zu lösen und dir dann erklärt, was kaputt war.

3. Framework-Agnostisch (aber mit Angular-DNA)

Obwohl vom Angular-Team entwickelt, funktioniert das Tool mit:

  • React (ja, wirklich!)
  • Vue (kein Problem)
  • Vanilla JavaScript (old school cool)
  • Web Components (für die Puristen)

Praktisches Setup in 5 Minuten

Schritt 1: Installation (Das Fundament legen)

# Global installieren für maximale Power
npm install -g web-codegen-scorer

# Oder mit pnpm für die Hipster unter uns
pnpm add -g web-codegen-scorer

Schritt 2: API-Keys konfigurieren (Die Zugangskarten)

# Für jedes Modell, das du testen willst
export GEMINI_API_KEY="dein-gemini-key"
export OPENAI_API_KEY="dein-openai-key"
export ANTHROPIC_API_KEY="dein-claude-key"

Pro-Tipp: Leg dir eine .env Datei an und source sie vor jedem Test-Run!

Schritt 3: Erste Evaluation starten

# Mit dem mitgelieferten Angular-Beispiel
web-codegen-scorer eval --env=angular-example

# Oder deine eigene Konfiguration
web-codegen-scorer eval --env=my-config.mjs --model=gpt-4o --limit=10

Schritt 4: Custom Configuration (Für Power-User)

// my-eval-config.mjs
export default {
  framework: 'react', // Ja, React geht auch!
  prompts: [
    'Create a todo app with drag-and-drop',
    'Build a real-time chat interface',
    'Implement a data dashboard with charts'
  ],
  checks: {
    buildSuccess: true,
    accessibility: true, 
    security: true,
    customMetrics: myCustomChecker // Eigene Checks!
  },
  repairAttempts: 3 // Wie oft soll repariert werden?
};

Behind the Scenes: Die Architektur

Der Scorer arbeitet in mehreren Phasen, die intelligent aufeinander aufbauen:

Phase 1: Code-Generierung

Prompt → LLM → Raw Code Output → Temporary Project Setup

Was passiert automatisch:

  • Project Scaffolding (npm init, dependencies)
  • File Structure Creation
  • Initial Build Attempt

Phase 2: Qualitätsprüfung

Build Check → Runtime Tests → Accessibility Scan → Security Audit → Best Practices Review

Das Besondere: Jeder Check generiert detaillierte Metriken, nicht nur Pass/Fail.

Phase 3: Repair & Iteration

Fehler identifiziert → Repair Prompt generiert → LLM Fix → Erneute Prüfung

Kritische Regel: Nach 3 Repair-Versuchen wird abgebrochen – sonst landen wir in einer Endlosschleife!

Phase 4: Reporting & Visualisierung

Das Tool generiert einen interaktiven Report mit:

  • Score-Übersicht pro Modell und Prompt
  • Detaillierte Fehleranalyse mit Code-Snippets
  • Vergleichstabellen zwischen Modellen
  • Zeitlicher Verlauf der Qualitätsmetriken

Real-World Use Cases

Use Case 1: Das Prompt-Engineering-Labor

Problem: Dein Team hat 5 verschiedene System-Prompts für React-Komponenten-Generierung.

Lösung mit Web Codegen Scorer:

# Teste alle Prompts systematisch
for prompt in prompts/*.txt; do
  web-codegen-scorer eval \
    --env=react-config \
    --system-prompt=$prompt \
    --report-name="prompt-$(basename $prompt .txt)"
done

Ergebnis: Nach 30 Minuten weißt du objektiv, welcher Prompt die beste Code-Qualität liefert.

Use Case 2: Der Modell-Shootout

Problem: Management will wissen, ob sich der Wechsel von GPT-4 zu Claude 3.5 lohnt.

Lösung:

// shootout-config.mjs
export default {
  models: ['gpt-4o', 'claude-3-5-sonnet', 'gemini-2.0-flash'],
  prompts: loadRealWorldPrompts(), // Echte Anforderungen!
  iterations: 10, // Statistisch relevant
  metrics: ['cost', 'quality', 'speed']
};

Ergebnis: Ein datenbasierter Report mit ROI-Berechnung.

Die Zukunft: Was kommt als Nächstes?

Das Angular-Team hat bereits eine spannende Roadmap angekündigt:

Interaction Testing 🎯

  • Nicht nur “sieht der Button gut aus”, sondern “funktioniert er auch wenn man draufklickt?”
  • Automatisierte E2E-Tests für generierte Apps

Core Web Vitals Integration 📊

  • Performance-Metriken direkt in die Bewertung einbeziehen
  • LCP, FID, CLS – die heilige Dreifaltigkeit der Web-Performance

Edit-Mode für bestehenden Code ✏️

  • Bewertung von Code-Modifikationen, nicht nur Neugenerierung
  • “Refactor this component” – aber macht’s der LLM auch besser?

Troubleshooting: Wenn’s mal klemmt

Die drei häufigsten Stolpersteine und ihre Lösungen:

1. “Build failed immediately”

# Check: Sind alle Dependencies installiert?
cd .web-codegen-scorer/temp
npm install
npm run build --verbose

2. “Scores sind inkonsistent”

  • Erhöhe --iterations für statistisch relevante Ergebnisse
  • Nutze --seed für reproduzierbare Tests

3. “Tests dauern ewig”

# Parallelisierung erhöhen
web-codegen-scorer eval --concurrency=10

# Oder lokalen Cache nutzen
web-codegen-scorer eval --local # Nutzt vorherige Outputs

Community Insights & Best Practices

“Wir haben unsere Prompt-Engineering Zeit um 70% reduziert, weil wir endlich objektive Metriken haben statt endloser Diskussionen.” — Sarah Chen, Senior Engineer bei TechCorp

“Der Accessibility-Check hat uns die Augen geöffnet – 90% unseres AI-generierten Codes war nicht barrierefrei!” — Marcus Weber, Frontend Lead

Fazit: Endlich erwachsene Metriken für AI-Code

Web Codegen Scorer ist mehr als nur ein weiteres Testing-Tool – es ist der Beginn einer neuen Ära, in der AI-generierter Code mit derselben Ernsthaftigkeit behandelt wird wie menschlicher Code.

Die wichtigsten Erkenntnisse:

  1. Objektive Metriken schlagen subjektive Meinungen – immer
  2. Systematisches Testing führt zu besserem AI-Code – garantiert
  3. Framework-agnostische Tools sind die Zukunft – definitiv

Das Tool demokratisiert die Qualitätsmessung von AI-Code und macht sie für jeden zugänglich – vom Solo-Developer bis zum Enterprise-Team.

Action Time! 🚀

Starte noch heute deine erste Evaluation:

# 1. Installieren
npm install -g web-codegen-scorer

# 2. Konfigurieren
export GEMINI_API_KEY="your-key"

# 3. Loslegen!
web-codegen-scorer eval --env=angular-example

Weitere Ressourcen:

Die Zukunft der Code-Generierung ist messbar – und Web Codegen Scorer zeigt uns den Weg. Zeit, dass wir aufhören zu raten und anfangen zu messen!

P.S.: Das Tool ist Open Source und das Angular-Team freut sich über Contributions. Vielleicht ist ja dein Custom-Check der nächste Standard-Feature? 😉

Geschrieben von Robin Böhm am 17. September 2025