Back-End Engineering generative KI für die Unternehmenssteuerung | GKV | LLM (m/w/d)
- Hamburg (20%) | Remote (80%)
- Start: 01.01.2026
- vor 2 Wochen
- Job Typ:
- Projekt
- Dauer:
- bis Ende 2026 + Verlängerungsoption (mehrere Jahre)
- Arbeitsumfang:
- Vollzeit
- Sprachen:
- Deutsch
ID: 175986
Westhouse ist eines der führenden internationalen Recruitment Unternehmen für die Vermittlung von hochqualifizierten Fachexperten.
Für unseren Kunden suchen wir aktuell eine/n Back-End Engineering generative KI für die Unternehmenssteuerung | GKV | LLM (m/w/d) - Hamburg (20%) | Remote (80%).
Ihre Aufgaben
- Konzeption und Implementierung einer modularen Data-Processing-Pipeline in Python zur automatisierten Extraktion, Bereinigung und Anreicherung großer unstrukturierter Dokumentmengen (z. B. Verträge, Leistungsabrechnungen, Gutachten).
- Entwicklung und Integration von LLM-basierten Komponenten (z. B. GPT, Claude, Mistral) zur semantischen Suche, Zusammenfassung und Re-Ranking von Dokumentinhalten auf Basis von Retrieval-Augmented Generation (RAG).
- Aufbau einer skalierbaren Backend-Architektur auf AWS (alternativ: Azure oder GCP) mit Fokus auf Containerisierung (Docker, Kubernetes) und Infrastructure-as-Code (Terraform).
- Design und Umsetzung von ETL-Prozessen zur Datenintegration aus heterogenen Quellen (SQL, CSV, XML, JSON, API) unter Nutzung von Pandas, PySpark und SQLAlchemy.
- Implementierung von OCR-gestützten Dokumentenverarbeitungs-Workflows (Azure Document Intelligence, Tesseract) zur strukturierten Erfassung von Gesundheits- und Abrechnungsdokumenten.
- Entwicklung und Optimierung von Machine-Learning-Modellen (z. B. Klassifikation, Clustering, Regressionsmodelle) zur automatischen Dokumenttyp-Erkennung und Inhaltsanalyse.
- Erstellung und Pflege von Unit-, Integration- und End-to-End-Tests zur Qualitätssicherung der entwickelten Services unter Einsatz von pytest, unittest, mock und CI/CD-Pipelines (Jenkins, GitLab CI).
- Implementierung von API-Schnittstellen (REST/GraphQL) zur Bereitstellung der KI-Ergebnisse an interne Systeme oder Web-Frontends.
- Entwicklung von Data-Visualization-Komponenten zur interaktiven Darstellung von Analyseergebnissen (Dash, Plotly, Streamlit).
- Prompt Engineering und Workflow-Automatisierung mit LangChain oder LlamaIndex, einschließlich Anpassung und Evaluierung von Prompts für anwendungsspezifische LLM-Tasks.
- Integration von Sicherheits- und Datenschutzmaßnahmen gemäß DevSecOps-Grundsätzen (Logging, Secrets-Management, Compliance-Anforderungen im Gesundheitswesen).
- Analyse und Performance-Optimierung bestehender Softwarekomponenten unter Berücksichtigung von algorithmischer Komplexität und Ressourceneffizienz.
- Mitwirkung an der fachlichen Modellierung von Wissensdomänen (z. B. Pflege, Hilfsmittel, Krankenhausabrechnungen) zur Verbesserung der internen Wissensmanagement-Systeme.
- Dokumentation der Architektur, Datenflüsse und KI-Modelle sowie Erstellung technischer Reports für Projektbeteiligte und Fachbereiche.
- A/B-Tests und Evaluation neuer KI-Modelle oder Prompt-Strategien zur Verbesserung der Ergebnisqualität und Benutzerakzeptanz.
Interessiert?
Jesse Lüder
Tel.: +49-40-3176773921
Fax.: +49-40-99996799
Email: j.lueder@westhouse-consulting.com
Stellenanzeige teilen
Ihre Qualifikationen
- Erfahrung mit grundlegenden Konzepten der Informatik, insbesondere Datenstrukturen, Algorithmen, automatisierten Tests, objektorientierter Programmierung, algorithmischer Komplexität und den Auswirkungen von Designentscheidungen auf die Softwareleistung.
- Mindestens 3 Jahre Erfahrung im Bereich Software-Entwicklung in Python und übergreifende Kenntnisse in z. B. Full Stack, App Entwicklung, oder Entwicklung verteilter Anwendungen.
- Mindestens 1 Jahr Erfahrung in der Arbeit an produktiven KI/ Data Science/ Data Analytics Projekten und spezialisierte Kenntnisse in einzelnen Data Science Fachbereichen (z. B. NLP, OCR usw.). Verständnis des ML-Lebenszyklus von der Datenextraktion bis zur Modellierung, Produktentwicklung und A/B-Tests.
- Verständnis grundlegender Konzepte und Algorithmen der Statistik und des maschinellen Lernens.
- Erfahrung mit Big-Data-Technologien (z. B. Hadoop, BigQuery, Spark) sowie in der Arbeit mit diversen Datenbanken.
- Erfahrung mit der Datenverarbeitung, -visualisierung und -modellierung in Python. Darüber hinaus fundierte Kenntnis von SQL.
- Erfahrung mit Cloud-Computing-Plattformen (z. B. MS Azure, AWS, GCP).
- Erfahrung in der Arbeit nach DevSecOps-Grundsätzen und Vertrautheit mit bewährten Bereitstellungsmethoden der Branche unter Verwendung von CI/CD-Tools und Infrastruktur als Code (z. B. Jenkins, Docker, Kubernetes, Terraform).
- Erfahrung mit Prompt Engineering für große Sprachmodelle (LLMs) sowie in der Anwendung von Techniken zur Bereitstellung anwendungsspezifischer Informationen für LLMs, wie z. B. Retrieval-Augmented Generation (RAG).
- Erfahrung im Einsatz moderner Softwarebibliotheken wie LangChain zur Entwicklung von Workflows und Systemen auf Basis von LLMs.
- Projekterfahrung als Back-End Engineer bzw. einer vergleichbaren Rolle in einer GKV in einem der folgenden Bereiche (mindestens einige Monate, bitte Rolle innerhalb des Projekts und Details über das Projekt beschreiben):
- ___Entwicklung eines fachbereichsübergreifenden KI-gestützten Wissensmanagement-Systems für eine GKV (z. B. Stationäre Versorgung, Hilfsmittel) mit LLM-basierter Extraktion, Zusammenfassung und semantischer Suche (RAG) inkl. Re-Ranking für Gesundheits- und Rechtsdokumente (Gerichtsurteile, Verträge, Richtlinien) zur Optimierung der internen Wissensverwaltung.
- ___KI-getriebene Extraktion, Zusammenfassung und Darstellung von Vertragsinhalten und Preislisten für Leistungserbringer in der speziellen ambulanten Palliativversorgung (SaPV).
- ___LLM-getriebene Extraktion, Zusammenfassung und Darstellung von Widersprüchen inkl. Anträgen, Verwaltungsakten, Gutachten und Kundenkorrespondenz im Bereich Pflege und Hilfsmittel.
- ___KI-gestützte Extraktion, Strukturierung und Zusammenfassung von Leistungsabrechnungsdokumenten im Rahmen von Erörterungsverfahren zu Krankenhausabrechnungen – inklusive Aufbau einer Verarbeitungs-Pipeline mit OCR (Azure Document Intelligence), Datenstrukturierung (XML) und LLM-basierter Analyse zur Dokumenttyp-Gruppierung, zeitlichen Einordnung und inhaltlichen Zusammenfassung.