Was ich als Custom KI baue

Maßgeschneidert auf Ihre Daten, Ihre Infrastruktur, Ihre Anforderungen.

Predictive Analytics

ML-Modelle die auf Ihren historischen Daten trainiert sind. Nachfrageprognosen, Churn-Prediction, Preisoptimierung, Lageroptimierung. Kein SaaS-Abo, kein Vendor-Lock-in.

NLP-Pipelines

Textklassifikation, Named Entity Recognition, Sentimentanalyse auf Ihre Datenbasis. Tickets kategorisieren, Verträge auslesen, Bewertungen auswerten — in Ihrer Sprache und Fachterminologie.

Computer Vision

Dokumenten-OCR, Bildklassifikation, Qualitätsprüfung, Barcode/QR. Lokale Modelle für datenschutzkritische Prozesse (keine Cloud-Uploads nötig).

Lokale LLM-Deployments

Eigene LLM-Infrastruktur auf Ihrem Server. Kein Datentransfer nach außen. Modelle: Qwen, Mistral, LLaMA — angepasst auf Ihre Domäne via Fine-tuning oder RAG.

Typische KI-Systeme die ich baue

Konkrete Anwendungsfälle aus der Praxis.

<200ms
Latenz bei lokaler Inferenz
95%+
Erkennungsgenauigkeit bei trainierten Modellen
0
Externe Daten bei On-Prem-Deployment
4–8 Wo.
Bis zum ersten Pilot

Rechnungs-KI

OCR + NLP: Eingangsrechnungen lesen, Felder extrahieren (Lieferant, Betrag, Datum, Positionen), gegen Bestellungen matchen. Buchungsvorschlag ausgeben.

  • Genauigkeit: >95% für strukturierte PDFs
  • Lokale Verarbeitung möglich (keine Cloud)
  • Integration in bestehende Buchhaltungssysteme

Nachfrageprognose

Zeitreihen-Modell auf Ihren Verkaufsdaten. Trainiert auf Saison, Wochentag, Wetter, Aktionen. Ausgabe: Tages-/Wochenprognosen pro SKU oder Standort.

  • Technologie: Prophet, XGBoost, LSTM je nach Datenmuster
  • Automatisches Re-Training bei neuen Daten
  • Dashboard-Integration oder API-Ausgabe

Ticket-Klassifikation

Support-Tickets, E-Mails, Formulare automatisch kategorisieren und routen. Training auf Ihren historischen Tickets (ab ~500 gelabelte Beispiele).

  • Neue Kategorie = Nachtraining in 1–2 Stunden
  • Konfidenz-Score für unsichere Fälle
  • Integration in Helpdesk-Systeme via API

Vertragsanalyse NLP

Verträge auf Klauseln, Fristen, Risiken durchsuchen. Named Entity Recognition für Parteien, Beträge, Termine. Similarity-Search: ähnliche Verträge finden.

  • Basis: lokales Embedding-Modell + Vektordatenbank
  • Kein Datentransfer an externe KI-Anbieter
  • Export als strukturiertes JSON oder Excel

Wann macht ein eigenes KI-System Sinn?

Custom KI vs. SaaS-Tools — der direkte Vergleich.

Kriterium SaaS-KI-Tool Custom KI-System
Datenschutz / On-Prem Daten gehen in fremde Cloud Alles bleibt auf Ihrem Server
Branchenspezifik Generische Modelle, oft ungenau Trainiert auf Ihre Daten & Terminologie
Kosten bei Scale Wächst mit Volumen, teuer Fix-Kosten, keine Per-Request-Gebühren
Vendor-Lock-in Abhängig von Anbieter-Preisen Eigene Infrastruktur, frei migrierbar
Integrationskontrolle API mit eingeschränkten Optionen Volle Kontrolle über Input/Output
Anpassbarkeit Begrenzt auf Anbieter-Features Jede Änderung möglich

Womit ich Custom KI baue

Erprobte Tools, keine Experimente auf Ihre Kosten.

ML-Frameworks

scikit-learn, XGBoost, PyTorch, TensorFlow

NLP

spaCy, Hugging Face Transformers, sentence-transformers

LLMs lokal

Ollama, vLLM, llama.cpp — Modelle: Qwen2.5, Mistral, LLaMA3

Vektordatenbanken

Qdrant, Chroma, Weaviate

Datenpipelines

Apache Airflow, Prefect, dbt

Serving

FastAPI, BentoML, TorchServe

MLOps

MLflow (Experiment-Tracking), Docker, GPU-Support

Von der Datenanalyse zum laufenden Modell

Strukturiert, iterativ, mit messbaren Zwischenergebnissen.

1

Daten-Audit (Woche 1)

Welche Daten existieren, Qualität, Vollständigkeit, Labels. Ist die Datenbasis ausreichend für das Ziel. Ergebnis: Machbarkeitseinschätzung.

2

Baseline-Modell (Woche 2)

Einfachstes Modell das das Problem löst. Kein Overengineering. Baseline gibt Ihnen ein konkretes Ergebnis zum Anfassen.

3

Iteratives Training (Woche 2–4)

Fehleranalyse, Feature Engineering, Modelloptimierung. Sie sehen die Verbesserung nach jeder Iteration.

4

Integration & Testing (Woche 4–6)

Modell in Ihre Infrastruktur einbinden: API, Datenbank-Trigger, Batch-Prozess. Qualitätssicherung mit Testdaten.

5

Monitoring & Retraining

Modell-Performance überwachen. Wenn Datendrift erkannt: automatisches Re-Training oder Alert. Ihr System bleibt genau.

Stanislaw Lederhos
Über mich

ML-Engineering ohne Data-Science-Overhead

Ich bringe kein 20-köpfiges Data-Science-Team. Ich bringe Fokus: das Modell das Ihr Problem löst, in der Infrastruktur die Sie haben, ohne Umwege über Plattformen die Sie nicht kontrollieren. Alles lokal, alles nachvollziehbar.

Kostenloses KI-Analyse-Gespräch

Häufige Fragen

Wie viele Daten brauche ich für ein Custom-Modell?

Für NLP-Klassifikation: ab 500–1.000 gelabelte Beispiele. Für Zeitreihenprognosen: mindestens 1–2 Jahre historische Daten. Für Computer Vision: ab 200–500 Bilder pro Klasse. Ich sage im Erstgespräch ehrlich ob es reicht.

Kann ich das Modell nach Projektende selbst warten?

Ja. Übergabe mit Dokumentation, Training-Code und Monitoring-Setup. Sie können das Modell selbst re-trainieren oder ich übernehme das im Wartungsvertrag.

Lokale Modelle — brauche ich dafür eigene GPU-Hardware?

Für kleinere Modelle (bis 7B Parameter) reicht ein normaler Server. Größere Modelle (13B+) profitieren von GPU. Ich empfehle die kostengünstigste Infrastruktur für Ihren Use Case.

Was wenn sich meine Daten stark verändern?

Modell-Monitoring erkennt Datendrift automatisch. Ich baue Re-Training-Pipelines ein die entweder automatisch triggern oder mich alertieren.

Wie unterscheidet sich das von Dienstleistungen großer KI-Anbieter?

Kein Vendor-Lock-in, kein Abo, kein Datentransfer in Fremdsysteme. Volle Kontrolle, transparente Kosten, direkter Ansprechpartner.

Interaktiv

KI-Automatisierung: Was bringt das wirklich?

Berechne deine konkrete Ersparnis — in deinen Zahlen.

1200
15min8h
20 €200 €
40%100%

Ersparnis / Monat

Ersparnis / Jahr

Amortisation

Diese Ersparnis realisieren →

30 Min. Strategie-Call · kostenlos · unverbindlich