Interview: KI im Krankenhaus braucht überprüfbare Qualität
Vortrag Tagung GQMG, Gesellschaft für Qualitätsmanagement in der Medizin
https://conferencemanager.events/gqmg-jahrestagung26/programm
Prof. Dr. med. Peter Langkafel MBA XU University Potsdam · Ingrano Solutions GmbH, Berlin
1) Herr Professor Langkafel, alle sprechen über KI im Gesundheitswesen – wo stehen wir wirklich?
Wir stehen an einem Wendepunkt: KI ist technisch beeindruckend, aber im klinischen Alltag zählt nicht „Wow“, sondern „Wird es sicher jeden Tag, bei jedem Patienten funktionieren?“. Viele Pilotprojekte scheitern nicht am Modell, sondern an Vertrauen, Integration und Nachweisbarkeit. Der Sprung von der Demo zur Versorgung gelingt nur, wenn Qualität messbar wird.
Zitat: „Im Krankenhaus gewinnt nicht die cleverste KI, sondern die verlässlichste.“
2) Was ist der größte Irrtum im KI-Hype?
Dass ein gutes Modell automatisch zu guter Versorgung führt. In der Praxis sind es Datenqualität, Prozesse, Verantwortung, Monitoring und Sicherheit, die darüber entscheiden, ob KI Nutzen bringt oder Risiken erhöht. KI ist kein Plug-and-Play, sondern ein System in einem Hochrisiko-Umfeld.
3) Sie sprechen von „klinischem Vertrauen“. Was bedeutet das konkret?
Klinisches Vertrauen heißt: Die Technologie ist nachvollziehbar, robust und sicher. Sie passt in den Workflow. Ärztinnen und Ärzte müssen wissen, was das System kann, wo Grenzen sind, wie es auf Ausnahmen reagiert und wer wofür haftet. Vertrauen ist kein Gefühl, stattdessen ist es das Ergebnis guter Prüfung.
Zitat: „Vertrauen entsteht, wenn Systeme sich erklären lassen und Fehler früh sichtbar werden.“
4) Welche Qualitätskriterien sind bei KI im Healthcare entscheidend?
Drei Ebenen: (1) Antwortqualität: Faktentreue, Halluzinationsrisiko, Robustheit, Umgang mit Unsicherheit. (2) Betrieb: Monitoring, Drift-Erkennung, Regressionstests, klare Freigabeprozesse. (3) Sicherheit & Compliance: Datenschutz, Zugriffskontrolle, Auditierbarkeit, Lieferkettensicherheit.
Das klingt technisch, aber im Kern ist es Patientenschutz.
5) Warum sind „Halluzinationen“ im Healthcare so kritisch?
Weil eine überzeugend formulierte Falschaussage gefährlicher sein kann als ein „Ich weiß es nicht“.
Im medizinischen Kontext müssen Systeme Unsicherheit signalisieren und im Zweifel eskalieren. Deshalb braucht es Testszenarien, die genau diese Fehlerbilder provozieren, bevor es Patienten betrifft.
Zitat: „Eine elegante Falschinformation ist das größte Risiko von generativer KI.“
6) Und was hat ein Parameter wie „Temperatur“ in einer Klinik zu suchen?
Temperatur steuert, wie kreativ oder stabil ein Modell antwortet. Kreativität kann in Kommunikation hilfreich sein, aber in klinischen Entscheidungen braucht es Konsistenz.
Für Healthcare gilt häufig, lieber eine niedrigere Temperatur und strengere Leitplanken zu benutzen, plus Quellenbindung.
7) Was ist aus Ihrer Sicht der wichtigste Schritt, den Kliniken jetzt gehen sollten?
Ein pragmatisches Qualitäts- und Sicherheits-Baseline-Assessment, um herauszufinden, wo sie bei Daten, Prozessen, Testing, Security, Verantwortlichkeiten stehen. Danach kann man Use Cases priorisieren und eine Roadmap bauen. Ohne Standortbestimmung wird KI schnell teuer und unkontrollierbar.
8) Viele Häuser sind überlastet. Wie kann Qualitätssicherung realistisch aussehen?
Indem man sie industrialisiert: standardisierte Checklisten, wiederverwendbare Testkataloge, automatisierte Evidenzpakete, klare „Quality Gates“. Es geht nicht darum, mehr Bürokratie zu schaffen, sondern Reibung rauszunehmen und Sicherheit hochzufahren.
Zitat: „Wer Qualität automatisiert, gewinnt Geschwindigkeit und reduziert Risiko.“
9) Was unterscheidet Healthcare von anderen Branchen bei KI?
Im Healthcare ist der Kontext hochkomplex, die Daten sind sensibel, und die Fehlertoleranz ist minimal. Ein Fehler ist nicht nur ein Bug, er kann klinische Konsequenzen haben. Deshalb brauchen wir hier strengere Maßstäbe: Nachweise, Monitoring, klare Verantwortlichkeiten.
10) Wo sehen Sie in den nächsten 24 Monaten den größten Nutzen von KI?
In Bereichen, die Personal entlasten und Transparenz erhöhen. Also Dokumentation, Kodierung, Patientenkommunikation, Wissenszugang. Gerade dort kann KI enorme Zeit sparen, wenn sie getestet, kontrolliert und gut in Prozesse eingebettet ist.
11) Was wünschen Sie sich von Politik und Regulierung?
Ich wünsche mir Mut zur Klarheit. Standards für Nachweise, Mindestanforderungen an Monitoring und Auditierbarkeit und gleichzeitig Förderprogramme, die Qualitätssicherung und Integration mitdenken, nicht nur Modelltraining. Wir brauchen „Trust-by-Design“ als Leitprinzip.
12) Sie sind Professor und Unternehmer. Wie gehen Sie mit Interessenkonflikten um?
Indem ich transparent bin und sauber trenne. Wissenschaftliche Aussagen müssen unabhängig und begründbar sein. Unternehmerisch geht es darum, diese Standards praktisch umsetzbar zu machen. Transparenz ist hier kein Zusatz, sondern ein Teil von Vertrauen.
13) Wenn Sie einen Satz an Klinikentscheider richten müssten – welcher wäre das?
Fangen Sie nicht mit der größten KI an, sondern mit der besten Qualitätssicherung: Dann wird KI skalierbar, sicher und wirklich wirksam.
Zitat: „KI ist ein Medizinprodukt im Geiste: Ohne Nachweis kein Vertrauen.“
14) Und ein Satz an die Öffentlichkeit?
KI kann Versorgung verbessern, aber nur, wenn wir sie so ernst prüfen wie jedes andere kritische System.