Back-End Engineering generative KI für die Unternehmenssteuerung | GKV | LLM (m/w/d)

Hamburg (20%) | Remote (80%)
Start: 01.01.2026
vor 2 Wochen
Job Typ:
Projekt
Dauer:
bis Ende 2026 + Verlängerungsoption (mehrere Jahre)
Arbeitsumfang:
Vollzeit
Sprachen:
Deutsch

ID: 175986

Jetzt bewerben

Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten.

Für unseren Kunden suchen wir aktuell eine/n Back-End Engineering generative KI für die Unternehmenssteuerung | GKV | LLM (m/w/d) - Hamburg (20%) | Remote (80%).

Ihre Aufgaben

    • Konzeption und Implementierung einer modularen Data-Processing-Pipeline in Python zur automatisierten Extraktion, Bereinigung und Anreicherung großer unstrukturierter Dokumentmengen (z. B. Verträge, Leistungsabrechnungen, Gutachten).
    • Entwicklung und Integration von LLM-basierten Komponenten (z. B. GPT, Claude, Mistral) zur semantischen Suche, Zusammenfassung und Re-Ranking von Dokumentinhalten auf Basis von Retrieval-Augmented Generation (RAG).
    • Aufbau einer skalierbaren Backend-Architektur auf AWS (alternativ: Azure oder GCP) mit Fokus auf Containerisierung (Docker, Kubernetes) und Infrastructure-as-Code (Terraform).
    • Design und Umsetzung von ETL-Prozessen zur Datenintegration aus heterogenen Quellen (SQL, CSV, XML, JSON, API) unter Nutzung von Pandas, PySpark und SQLAlchemy.
    • Implementierung von OCR-gestützten Dokumentenverarbeitungs-Workflows (Azure Document Intelligence, Tesseract) zur strukturierten Erfassung von Gesundheits- und Abrechnungsdokumenten.
    • Entwicklung und Optimierung von Machine-Learning-Modellen (z. B. Klassifikation, Clustering, Regressionsmodelle) zur automatischen Dokumenttyp-Erkennung und Inhaltsanalyse.
    • Erstellung und Pflege von Unit-, Integration- und End-to-End-Tests zur Qualitätssicherung der entwickelten Services unter Einsatz von pytest, unittest, mock und CI/CD-Pipelines (Jenkins, GitLab CI).
    • Implementierung von API-Schnittstellen (REST/GraphQL) zur Bereitstellung der KI-Ergebnisse an interne Systeme oder Web-Frontends.
    • Entwicklung von Data-Visualization-Komponenten zur interaktiven Darstellung von Analyseergebnissen (Dash, Plotly, Streamlit).
    • Prompt Engineering und Workflow-Automatisierung mit LangChain oder LlamaIndex, einschließlich Anpassung und Evaluierung von Prompts für anwendungsspezifische LLM-Tasks.
    • Integration von Sicherheits- und Datenschutzmaßnahmen gemäß DevSecOps-Grundsätzen (Logging, Secrets-Management, Compliance-Anforderungen im Gesundheitswesen).
    • Analyse und Performance-Optimierung bestehender Softwarekomponenten unter Berücksichtigung von algorithmischer Komplexität und Ressourceneffizienz.
    • Mitwirkung an der fachlichen Modellierung von Wissensdomänen (z. B. Pflege, Hilfsmittel, Krankenhausabrechnungen) zur Verbesserung der internen Wissensmanagement-Systeme.
    • Dokumentation der Architektur, Datenflüsse und KI-Modelle sowie Erstellung technischer Reports für Projektbeteiligte und Fachbereiche.
    • A/B-Tests und Evaluation neuer KI-Modelle oder Prompt-Strategien zur Verbesserung der Ergebnisqualität und Benutzerakzeptanz.

Ihre Qualifikationen

    • Erfahrung mit grundlegenden Konzepten der Informatik, insbesondere Datenstrukturen, Algorithmen, automatisierten Tests, objektorientierter Programmierung, algorithmischer Komplexität und den Auswirkungen von Designentscheidungen auf die Softwareleistung.
    • Mindestens 3 Jahre Erfahrung im Bereich Software-Entwicklung in Python und übergreifende Kenntnisse in z. B. Full Stack, App Entwicklung, oder Entwicklung verteilter Anwendungen.
    • Mindestens 1 Jahr Erfahrung in der Arbeit an produktiven KI/ Data Science/ Data Analytics Projekten und spezialisierte Kenntnisse in einzelnen Data Science Fachbereichen (z. B. NLP, OCR usw.). Verständnis des ML-Lebenszyklus von der Datenextraktion bis zur Modellierung, Produktentwicklung und A/B-Tests.
    • Verständnis grundlegender Konzepte und Algorithmen der Statistik und des maschinellen Lernens.
    • Erfahrung mit Big-Data-Technologien (z. B. Hadoop, BigQuery, Spark) sowie in der Arbeit mit diversen Datenbanken.
    • Erfahrung mit der Datenverarbeitung, -visualisierung und -modellierung in Python. Darüber hinaus fundierte Kenntnis von SQL.
    • Erfahrung mit Cloud-Computing-Plattformen (z. B. MS Azure, AWS, GCP).
    • Erfahrung in der Arbeit nach DevSecOps-Grundsätzen und Vertrautheit mit bewährten Bereitstellungsmethoden der Branche unter Verwendung von CI/CD-Tools und Infrastruktur als Code (z. B. Jenkins, Docker, Kubernetes, Terraform).
    • Erfahrung mit Prompt Engineering für große Sprachmodelle (LLMs) sowie in der Anwendung von Techniken zur Bereitstellung anwendungsspezifischer Informationen für LLMs, wie z. B. Retrieval-Augmented Generation (RAG).
    • Erfahrung im Einsatz moderner Softwarebibliotheken wie LangChain zur Entwicklung von Workflows und Systemen auf Basis von LLMs.
    • Projekterfahrung als Back-End Engineer bzw. einer vergleichbaren Rolle in einer GKV in einem der folgenden Bereiche (mindestens einige Monate, bitte Rolle innerhalb des Projekts und Details über das Projekt beschreiben):
    • ___Entwicklung eines fachbereichsübergreifenden KI-gestützten Wissensmanagement-Systems für eine GKV (z. B. Stationäre Versorgung, Hilfsmittel) mit LLM-basierter Extraktion, Zusammenfassung und semantischer Suche (RAG) inkl. Re-Ranking für Gesundheits- und Rechtsdokumente (Gerichtsurteile, Verträge, Richtlinien) zur Optimierung der internen Wissensverwaltung.
    • ___KI-getriebene Extraktion, Zusammenfassung und Darstellung von Vertragsinhalten und Preislisten für Leistungserbringer in der speziellen ambulanten Palliativversorgung (SaPV).
    • ___LLM-getriebene Extraktion, Zusammenfassung und Darstellung von Widersprüchen inkl. Anträgen, Verwaltungsakten, Gutachten und Kundenkorrespondenz im Bereich Pflege und Hilfsmittel.
    • ___KI-gestützte Extraktion, Strukturierung und Zusammenfassung von Leistungsabrechnungsdokumenten im Rahmen von Erörterungsverfahren zu Krankenhausabrechnungen – inklusive Aufbau einer Verarbeitungs-Pipeline mit OCR (Azure Document Intelligence), Datenstrukturierung (XML) und LLM-basierter Analyse zur Dokumenttyp-Gruppierung, zeitlichen Einordnung und inhaltlichen Zusammenfassung.