Was ich als Custom KI baue
Maßgeschneidert auf Ihre Daten, Ihre Infrastruktur, Ihre Anforderungen.
Predictive Analytics
ML-Modelle die auf Ihren historischen Daten trainiert sind. Nachfrageprognosen, Churn-Prediction, Preisoptimierung, Lageroptimierung. Kein SaaS-Abo, kein Vendor-Lock-in.
NLP-Pipelines
Textklassifikation, Named Entity Recognition, Sentimentanalyse auf Ihre Datenbasis. Tickets kategorisieren, Verträge auslesen, Bewertungen auswerten — in Ihrer Sprache und Fachterminologie.
Computer Vision
Dokumenten-OCR, Bildklassifikation, Qualitätsprüfung, Barcode/QR. Lokale Modelle für datenschutzkritische Prozesse (keine Cloud-Uploads nötig).
Lokale LLM-Deployments
Eigene LLM-Infrastruktur auf Ihrem Server. Kein Datentransfer nach außen. Modelle: Qwen, Mistral, LLaMA — angepasst auf Ihre Domäne via Fine-tuning oder RAG.
Typische KI-Systeme die ich baue
Konkrete Anwendungsfälle aus der Praxis.
Rechnungs-KI
OCR + NLP: Eingangsrechnungen lesen, Felder extrahieren (Lieferant, Betrag, Datum, Positionen), gegen Bestellungen matchen. Buchungsvorschlag ausgeben.
- Genauigkeit: >95% für strukturierte PDFs
- Lokale Verarbeitung möglich (keine Cloud)
- Integration in bestehende Buchhaltungssysteme
Nachfrageprognose
Zeitreihen-Modell auf Ihren Verkaufsdaten. Trainiert auf Saison, Wochentag, Wetter, Aktionen. Ausgabe: Tages-/Wochenprognosen pro SKU oder Standort.
- Technologie: Prophet, XGBoost, LSTM je nach Datenmuster
- Automatisches Re-Training bei neuen Daten
- Dashboard-Integration oder API-Ausgabe
Ticket-Klassifikation
Support-Tickets, E-Mails, Formulare automatisch kategorisieren und routen. Training auf Ihren historischen Tickets (ab ~500 gelabelte Beispiele).
- Neue Kategorie = Nachtraining in 1–2 Stunden
- Konfidenz-Score für unsichere Fälle
- Integration in Helpdesk-Systeme via API
Vertragsanalyse NLP
Verträge auf Klauseln, Fristen, Risiken durchsuchen. Named Entity Recognition für Parteien, Beträge, Termine. Similarity-Search: ähnliche Verträge finden.
- Basis: lokales Embedding-Modell + Vektordatenbank
- Kein Datentransfer an externe KI-Anbieter
- Export als strukturiertes JSON oder Excel
Wann macht ein eigenes KI-System Sinn?
Custom KI vs. SaaS-Tools — der direkte Vergleich.
| Kriterium | SaaS-KI-Tool | Custom KI-System |
|---|---|---|
| Datenschutz / On-Prem | Daten gehen in fremde Cloud | Alles bleibt auf Ihrem Server |
| Branchenspezifik | Generische Modelle, oft ungenau | Trainiert auf Ihre Daten & Terminologie |
| Kosten bei Scale | Wächst mit Volumen, teuer | Fix-Kosten, keine Per-Request-Gebühren |
| Vendor-Lock-in | Abhängig von Anbieter-Preisen | Eigene Infrastruktur, frei migrierbar |
| Integrationskontrolle | API mit eingeschränkten Optionen | Volle Kontrolle über Input/Output |
| Anpassbarkeit | Begrenzt auf Anbieter-Features | Jede Änderung möglich |
Womit ich Custom KI baue
Erprobte Tools, keine Experimente auf Ihre Kosten.
ML-Frameworks
scikit-learn, XGBoost, PyTorch, TensorFlow
NLP
spaCy, Hugging Face Transformers, sentence-transformers
LLMs lokal
Ollama, vLLM, llama.cpp — Modelle: Qwen2.5, Mistral, LLaMA3
Vektordatenbanken
Qdrant, Chroma, Weaviate
Datenpipelines
Apache Airflow, Prefect, dbt
Serving
FastAPI, BentoML, TorchServe
MLOps
MLflow (Experiment-Tracking), Docker, GPU-Support
Von der Datenanalyse zum laufenden Modell
Strukturiert, iterativ, mit messbaren Zwischenergebnissen.
Daten-Audit (Woche 1)
Welche Daten existieren, Qualität, Vollständigkeit, Labels. Ist die Datenbasis ausreichend für das Ziel. Ergebnis: Machbarkeitseinschätzung.
Baseline-Modell (Woche 2)
Einfachstes Modell das das Problem löst. Kein Overengineering. Baseline gibt Ihnen ein konkretes Ergebnis zum Anfassen.
Iteratives Training (Woche 2–4)
Fehleranalyse, Feature Engineering, Modelloptimierung. Sie sehen die Verbesserung nach jeder Iteration.
Integration & Testing (Woche 4–6)
Modell in Ihre Infrastruktur einbinden: API, Datenbank-Trigger, Batch-Prozess. Qualitätssicherung mit Testdaten.
Monitoring & Retraining
Modell-Performance überwachen. Wenn Datendrift erkannt: automatisches Re-Training oder Alert. Ihr System bleibt genau.
Über mich
ML-Engineering ohne Data-Science-Overhead
Ich bringe kein 20-köpfiges Data-Science-Team. Ich bringe Fokus: das Modell das Ihr Problem löst, in der Infrastruktur die Sie haben, ohne Umwege über Plattformen die Sie nicht kontrollieren. Alles lokal, alles nachvollziehbar.
Kostenloses KI-Analyse-GesprächHäufige Fragen
Wie viele Daten brauche ich für ein Custom-Modell?
Für NLP-Klassifikation: ab 500–1.000 gelabelte Beispiele. Für Zeitreihenprognosen: mindestens 1–2 Jahre historische Daten. Für Computer Vision: ab 200–500 Bilder pro Klasse. Ich sage im Erstgespräch ehrlich ob es reicht.
Kann ich das Modell nach Projektende selbst warten?
Ja. Übergabe mit Dokumentation, Training-Code und Monitoring-Setup. Sie können das Modell selbst re-trainieren oder ich übernehme das im Wartungsvertrag.
Lokale Modelle — brauche ich dafür eigene GPU-Hardware?
Für kleinere Modelle (bis 7B Parameter) reicht ein normaler Server. Größere Modelle (13B+) profitieren von GPU. Ich empfehle die kostengünstigste Infrastruktur für Ihren Use Case.
Was wenn sich meine Daten stark verändern?
Modell-Monitoring erkennt Datendrift automatisch. Ich baue Re-Training-Pipelines ein die entweder automatisch triggern oder mich alertieren.
Wie unterscheidet sich das von Dienstleistungen großer KI-Anbieter?
Kein Vendor-Lock-in, kein Abo, kein Datentransfer in Fremdsysteme. Volle Kontrolle, transparente Kosten, direkter Ansprechpartner.
Weitere Leistungen
Interaktiv
KI-Automatisierung: Was bringt das wirklich?
Berechne deine konkrete Ersparnis — in deinen Zahlen.
Ersparnis / Monat
–
Ersparnis / Jahr
–
Amortisation
–
30 Min. Strategie-Call · kostenlos · unverbindlich