FormalPara Zusammenfassung

Das Kap. 5 gilt aktuellen wissenschaftlichen Entwicklungen und den sich daraus ergebenden vielversprechenden Chancen. Naturgemäss lässt sich deren Nutzen selbst bei erfolgreicher technischer Realisierung zum jetzigen Zeitpunkt noch nicht abschliessend beurteilen. Die bekannten Erfolgsrisiken, die mit der Durchführung medizinischer Forschungs- und Entwicklungsprojekte verknüpft sind, legen nahe, dass sich nicht alle mit ihnen verbundenen Hoffnungen erfüllen werden.

Dessen ungeachtet ruhen besonders gut begründete Hoffnungen auf dem zunehmenden Einsatz von Biomarkern, die schon jetzt die Grundlagen für zielgerichtete Therapien («Targeted Therapies») geschaffen haben und deren Weg in die Anwendung dennoch erst am Anfang steht. Zusammen mit weiteren Methoden und Technologien wie – beispielsweise – der «Pharmakogenomik», dem Next Generation Sequencing (NGS), oder auch der Probengewinnung durch Flüssigbiopsien («Liquid Biopsies») werden die damit verbundenen Chancen und Möglichkeiten gelegentlich unter dem Rubrum «Präzisionsmedizin» subsumiert. Gemeinsame Basis aller «präzisionsmedizinischen» Ansätze ist die Verfügbarkeit äusserst verlässlicher analytischer Verfahren. Zunehmend deutlich wird, dass davon gerade auch die Erfolgschancen biomedizinischer Forschung & Entwicklung in vielfältiger Weise profitieren dürften, weil gezielteres Vorgehen rationalere Entwicklungsstrategien ermöglicht.

Dem wissenschaftlichen Fortschritt stehen erhöhte Anforderungen gegenüber an den Nachweis der Qualität und der technischen Dokumentation, der klinischen Wirksamkeit und Sicherheit, und perspektivisch des Nutzens und der Kosteneffektivität neuer diagnostischer Verfahren, deren Erfüllung mit der Implementierung neuer Vorgaben wie der europäischen «In Vitro Diagnostics Regulation» (IVDR) zu einer Voraussetzung für den Eingang neuer Medizinprodukte und Diagnostika in die Routineversorgung wird. Im Spannungsfeld zwischen Innovationsdynamik und standardisierter Evaluation wird es zusätzlich – ergänzend oder gegebenenfalls auch alternativ – zu den konventionellen Methoden der Kosten/Nutzen-Analyse Praxis-orientierte Lösungsansätze brauchen.

Die Schweizer Laboratoriumsmedizin wir somit steigenden Erwartungen gerecht werden müssen. Teilhabe am wissenschaftlichen Fortschritt in der Spitze wird verknüpft werden müssen mit Strukturen für die erfolgreiche, qualitätsgesicherte Translation neuer Technologien in die Breite der Versorgungsrealität. Das bedingt einerseits die Ausschöpfung bestehender Effizienzsteigerungspotenziale – Stichwort «Digitalisierung» der Laboratoriumsmedizin – und andererseits ein innovationsfreundliches regulatorisches Umfeld.

5.1 Präzisionsmedizin

Die dynamische Entwicklung und das Zukunftspotenzial der Labormedizin lässt sich vielleicht am prägnantesten mit dem in jüngerer Zeit zunehmend populären Begriff der «personalisierten»Footnote 1 oder – vielleicht etwas weniger missverständlich – «Präzisionsmedizin» beschreiben. Der gemeinsame Nenner aller unter dem Begriff «Präzisionsmedizin» subsumierten Ansätze, zum Beispiel

  • der Stratifizierung von Patienten anhand biologischer Merkmale zur Ermöglichung zielgerichteter Therapien («Targeted Therapies»),

  • dem Einsatz von Biomarker-Panel-Analysen,

  • Techniken zur Analyse der genetischen und immunologischen Komplexität von Erkrankungen wie dem Next Generation Sequencing (NGS),

  • schliesslich teilweise oder vollständig mutationsbasierten Therapien,

ist die Idee, das herkömmliche – oft als «One Size Fits All» oder Schrotschuss-Strategie apostrophierte – Vorgehen durch die Bestimmung «der richtigen Therapie für den richtigen Patienten zum richtigen Zeitpunkt» zu ersetzen. Davon verspricht man sich eine frühere Krankheitserkennung, genauere Differentialdiagnostik, zielgenauere Therapien mit verbesserter Wirksamkeit und Verträglichkeit, sowie in der Konsequenz nicht nur grösseren Nutzen für die betroffenen Individuen, sondern bevölkerungsbezogen positive Public Health-Effekte und mindestens eine verbesserte Kosten/Nutzen-Relation, wenn nicht gleich Einsparungen durch Vermeidung unnützer oder sogar schädlicher medizinischer Massnahmen – weit über die bereits exemplarisch skizzierten Fortschritte hinaus (vgl. Maughan 2017).

Gemeinsamer Dreh- und Angelpunkt aller einschlägigen Ansätze ist die Verfügbarkeit äusserst verlässlicher analytischer Verfahren.

5.1.1 Pharmakogenomik als etabliertes Konzept

Die Idee einer massgeschneiderten Arzneimitteltherapie ist nicht grundsätzlich neu; schon in den 1970er-Jahren wurde mit Tamoxifen ein selektiver Östrogenrezeptormodulator mit grossem Erfolg in die Therapie der Brustkrebserkrankungen eingeführt, wenn die Tumore positiv auf Hormonrezeptoren getestet wurden (als erstes Beispiel einer «Targeted Therapy», vgl. den vorangegangenen Abschn. 4.2.8. Bereits früher, in den 1950er-Jahren, prägte der Heidelberger Humangenetiker Friedrich Vogel den Begriff der Pharmakogenetik, die sich mit dem Zusammenhang erblicher Faktoren mit der Wirkung von Arzneimitteln befasst (Vogel 1959). Es wird heute davon ausgegangen, dass rund 80 % der interindividuellen Variabilität der Wirksamkeit und Verträglichkeit von medikamenten auf genetische Ursachen zurückgeht (vgl. Cacabelos et al. 2019).

Eine bedeutende Rolle spielt traditionell das Cytochrom P450-System, dessen Enzyme die Metabolisierung vieler Medikamente verantworten (vgl. Tornio und Backman 2018). Die genetische Variabilität des Cytochrom P450-Systems hat direkte Folgen für die Aktivierung oder den Abbau von Wirkstoffen in der Leber. So weiss man, dass die Wirksamkeit von Tamoxifen von der Cytochrom-P450 2D6-VarianteFootnote 2 beeinflusst wird, weil das Pro-Drug Tamoxifen erst CYP 2D6-abhängig zu seinem eigentlich aktiven Metaboliten Endoxifen verstoffwechselt werden muss (vgl. Goetz et al. 2008; Punglia et al. 2008). Gleichermassen spielt das Cytochrom P450-System eine wichtige Rolle für das Auftreten von Arzneimittelwechselwirkungen; am Beispiel Tamoxifens für Wirkungsverluste bei Kombination mit Arzneimitteln, die CYP 2D6 inhibieren (vgl. Hansten 2018).

Über das Beispiel Tamoxifen hinaus spielt das Cytochrom P450 2D6 eine wichtige Rolle bei der Metabolisierung von 20 bis 30 % aller Medikamente, darunter Codein, zahlreiche Psychopharmaka und Neuroleptika (und weitere). Aktuell sind über 80 verschiedene CYP 2D6-Genotypen («Allele») bekannt; die in Phänotypgruppen zusammengefasst werden und so eine Klassifizierung der individuellen Enzymaktivität ermöglichen. Insgesamt ist alleine das Cytochrom P450-System für die Metabolisierung von rund drei Viertel aller heute gebräuchlichen Medikamente verantwortlich; die genetische Variabilität ist nicht auf die CYP 2D6-Familie begrenzt.

Das Potenzial der modernen Pharmakogenomik – manchmal werden die Begriffe «Pharmakogenetik» und «Pharmakogenomik» synonym verwendet – ist längst nicht ausgeschöpft. Sie beruht wesentlich auf der Anwendung DNA-basierter Genotypisierungen, um die genetischen Variationen zu analysieren, die der grossen interindividuellen Heterogenität im Ansprechen auf Arzneimitteltherapien zugrundeliegen. Ihre zunehmende Bedeutung illustriert der Anteil der Arzneimittelzulassungen mit einem (im Einzelfall unterschiedlich starken) Hinweis auf relevante pharmakogenetische Informationen, der in den USA von 10 % im Jahr 2000 auf zuletzt mehr als 28 % im Jahr 2020 (bis einschliesslich Juli 2020) stieg (Kim et al. 2021; vgl. Abb. 5.1). Von diesen (insgesamt 694 neu von der FDA zugelassenen Medikamenten mit einem pharmakogenetischen Hinweis) entfiel knapp die Hälfte (49,4 %) auf die Onkologie, gefolgt von Neurologie (9,0 %), Infektiologie (7,9 %), Psychiatrie (5,6 %) und angeborenen Stoffwechseldefekten (5,1 %).

Abb. 5.1
figure 1

Arzneimittelzulassungen mit pharmakogenomischen Hinweisen. Zeitlicher Trend der Arzneimittelzulassungen (durch die U.S. Food and Drug Administration) mit (dunkelblau) und ohne (grau) pharmakogenomischen Hinweis. Quelle: Kim et al. (2021); Datenbasis FDA (2020), Jahre 2000 bis Juli 2020

5.1.2 Pharmakogenomik: Klinisches und ökonomisches Potenzial

Von der enormen Vielzahl bekannter Genvariationen, die Einfluss auf die Verträglichkeit und/oder Wirksamkeit eines Medikaments haben, wird aktuell in der 2017 im Rahmen des EU-Programms «Horizon 2020» implementierten randomisierten Studie «Preemptive Pharmacogenomic Testing for Prevention of Adverse Drug Reactions» («PREPARE») ein Panel von mehr als 40 als klinisch relevant eingeschätzten genetischen Markern untersucht. Ziel ist der Proof-of-Concept des klinischen Impact und der Kosteneffektivität eines systematischen Einsatzes pharmakogenetischer Diagnostik im klinischen Alltag. Dazu wird bei der Hälfte der 8100 Studienpatienten abhängig vom pharmakogenomischen Ergebnis die Medikation angepasst, während die Patienten der Kontrollgruppe die Standardtherapie erhalten. Mit der paneuropäischen PREPARE-Studie soll damit der Nutzen der pharmakogenomischen Diagnostik im klinischen Alltag belegt werden, einerseits mit Blick auf die Wirksamkeit und Verträglichkeit aus der Patientenperspektive, andererseits mit Blick auf die Kosten/Nutzen-Relation bei einem Einsatz in der ärztlichen Routineversorgung (vgl. van der Wouden et al. 2020).

5.1.3 Präzisionsmedizin: Neuere Entwicklungen

Mit den neuen molekulargenetischen und immunologischen Untersuchungsmöglichkeiten hat die Idee einer individualisierten, für den konkreten Patienten «massgeschneiderten» (und deshalb manchmal auch als «personalisiert» bezeichneten) Präzisionsmedizin einen erheblichen Aufschwung über die Teilthemen «Pharmakogenomik» und «Therapeutisches Drug-Monitoring» (vgl. dazu auch die Ausführungen im vorangegangenen Abschnitt «Psychiatrische Erkrankungen») hinaus erlebt.

Die Dynamik dieser Entwicklung wird auch von der rasch zunehmenden Zahl zugelassener Companion Diagnostics reflektiert (vgl. dazu den vorangegangenen Abschn. 4.1.2 und Abb. 5.2).

Abb. 5.2
figure 2

Zulassungen von Companion Diagnostics CDx») durch die FDA. Zulassungen pro Jahr durch die Food and Drug Administration (FDA) in den Vereinigten Staaten; Quelle: Jørgensen (2021) nach FDA (2020). Vgl. dazu auch den Abschnitt «Health Technology Assessments (HTAs) von Diagnostika: Spezialfall Companion Diagnostics», Seiten 61ff

5.1.4 Neue Verfahren in Forschung & Entwicklung (F&E)

Schon für die etablierten labordiagnostischen Verfahren ist es jenseits der Machbarkeit, einen vollständigen aktuellen Überblick über die notwendigerweise immer nur

  • testspezifisch

  • im Rahmen eines bestimmten medizinischen Behandlungspfads («Therapeutic Pathway»)

  • für eine exakt definierte Population

  • in einem definierten Setting

  • in jeweils einer definierten Indikation

  • aus einer aus gesundheitsökonomischer Sicht definierten Perspektive (gesamtgesellschaftlich, Kostenträger, Arbeitgeber, Patienten, usw.)

  • im Vergleich zu einem Referenzstandard («State of the Art» oder «Standard of Care»)

zu ermittelnde Kosteneffektivität zu generieren. Das muss dann erst recht für Verfahren gelten, die sich noch in der Erprobung oder einer frühen Phase ihres Technologie-Lebenszyklus befinden und deshalb hier den «Zukunftspotenzialen» zugeordnet werden. Die folgenden Beispiele sind dementsprechend mit keinem Anspruch auf Vollständigkeit verknüpft; sie orientieren sich an den aufgrund ihres Beitrags zur Krankheitslast in der Schweiz ausgewählten Indikationsgebieten und illustrieren pars pro toto die ungebrochene Innovationsdynamik der Labormedizin.

5.1.5 Vorreiterrolle der Onkologie

Der Onkologie kommt eine Vorreiterrolle zu bei der Entwicklung der modernen Präzisionsmedizin. So galten mit einer Ausnahme alle 44 bis Ende 2020 von der Food and Drug Administration in den USA zugelassenen Companion Diagnostics der Kombination des Tests mit dem Entscheid über den zielgerichteten Einsatz eines Krebsmedikaments (Jørgensen 2021; vgl. dazu den Abschn. 4.1.2 zu «Companion Diagnostics»).

Die Entwicklung der Medikamente Trastuzumab (für eine kurze Darstellung siehe oben, Abschn. 4.2.8) und Cetuximab (zur zielgerichteten Therapie kolorektaler Karzinome) wird weithin als paradigmatisch angesehen. Im beispielgebenden Fall von Trastuzumab fand die Entwicklung eines IHC-basierten Tests parallel mit der des Medikaments statt und gilt als entscheidender Erfolgsfaktor für das F&E-Programm (siehe dazu auch nachstehend, Abschn. 5.2). Sowohl der IHC-Test als auch ein auf der FISH-Technologie fussender HER2-Expressionstest – beide zugelassen seit 2010 – wurden in der Folge für die zielgerichtete Entwicklung der neueren gegen HER2-überexprimierende Karzinome eingesetzten Wirkstoffe Pertuzumab und Ado-Trastuzumab-Emtansin eingesetzt (vgl. Jørgensen 2021).

Anders verlief die Entwicklung von Cetuximab, einem hochspezifischen monoklonalen Antikörper gegen EGFR, dessen Wirkung nicht der Ausgangshypothese (Scaltriti und Baselga 2006) entsprechend deutlich mit dem EGFR-Status der Tumore korrelierte (vgl. Labianca et al. 2007; Scaltriti und Baselga 2006). Vielmehr zeigten hier erst post hoc-Analysen von Subgruppen, dass vor allem der positive RAS-Mutationsstatus ein entscheidender negativer Prädiktor für den Erfolg einer Therapie mit Cetuximab ist (vgl. Karapetis et al. 2008; Lièvre et al. 2006; Sorich et al. 2015); unabhängig davon erwiesen sich KRAS- wie auch BRAF-Mutationen und Mikrosatelliteninstabilität (MSI) als prognostische Marker kolorektaler Karzinome (vgl. Klingbiel und Tejpar 2016; Taieb et al. 2016).

Eine unter Leitung von Wissenschaftlern des Mario Negri-Instituts für Pharmakologische Forschung in Ranica (Italien) im Jahr 2015 verfasste Übersicht europäischer gesundheitsökonomischer Evaluationen der Therapien des metastasierten Mammakarzinoms mit Trastuzumab und des metastasierten kolorektalen Karzinoms mit Cetuximab fand neun relevante Studien (vgl. Garattini et al. 2015), darunter zwei aus der Schweiz (Blank et al. 2011; Matter-Walstra et al. 2010), von denen wiederum nur eine (indirekt) die ökonomische Rolle der Tests adressierte (Blank et al. 2011). Die Mehrzahl der Studien berichtete die Kosten der Diagnostik nur unvollständig; allen Studien war gemeinsam, dass die Kosteneffektivität der gezielten Therapie mit Trastuzumab beziehungsweise Cetuximab stark von den jeweiligen Kosten der Therapeutika abhing, während sich der Anteil der Testkosten – wo überhaupt exakt erfasst – an den direkten Kosten nur auf zwischen 0,2 und 1,2 % belief (Garattini et al. 2015).

5.2 Forschung & Entwicklung (F&E): Neues Entwicklungsparadigma

Die schnell zunehmende Verfügbarkeit von prädiktiven Biomarkern hat das Potential, die klinische Forschung und Entwicklung neuer Medikamente und Verfahren zu revolutionieren. Schon von den in den Jahren von 2015 bis 2019 von der European Medicines Agency (EMA) und der amerikanischen Food and Drug Administration (FDA) neu zugelassenen Medikamenten waren rund zwei Drittel (65 %) unter Zuhilfenahme von Biomarkern entwickelt worden (vgl. Gromova et al. 2020). Es gibt zunehmende Hinweise darauf, dass der Einsatz von Biomarkern sowohl die Effektivität als auch die Effizienz der Arzneimittelentwicklung deutlich verbessert. Dafür gibt es zahlreiche Gründe (vgl. die Diskussion hierzu bei Dugger et al. 2018).

5.2.1 Status quo der Medikamentenentwicklung

Die Entwicklung neuer Arzneimittel ist ein langwieriger teurer Prozess, mit Kosten pro neu zugelassenen Wirkstoff deutlich im Milliarden-Euro-Bereich (vgl. Schlander et al. 2021). Die durchschnittlichen Kosten variieren je nach Indikationsgebiet und betrugen der jüngsten Studie folgend (auf der Basis zwischen 2009 und 2018 von der FDA zugelassener Produkte) für neue Krebsmedikamente sogar bis zu 4,5 Mrd. USD (2019; siehe Wouters et al. 2020). Ausschlaggebend dafür sind neben den unmittelbaren Auslagen – vor allem für die Kosten der klinischen Entwicklungsphasen – das Risiko des Scheiterns von durchschnittlich 70 bis 90 % (für Krebsmedikamente traditionell bis zu 97 % allein in der klinischen Entwicklung; vgl. bei Hay et al. 2014; Wong et al. 2019) und die langen Entwicklungszeiten von im Mittel über zehn Jahren, die aus ökonomischer Sicht mit substanziellen Opportunitätskosten und deshalb der Notwendigkeit der Kapitalisierung der Auslagen einhergehen (vgl. Schlander et al. 2021).

5.2.2 Rationalere Entwicklungsstrategien

Im Unterschied zu hergebrachten «klassischen» Forschungs- & Entwicklungs- (F&E-) Strategien, die auf dem Massen-Screening («High Through-Put Screening», HTPS) grosser Substanzbibliotheken gegen validierte Targets beruhen und die als «molekulares Roulette» porträtiert wurden und zu «One Size Fits All»-Therapien führten, wird für «präzisionsmedizinische» Ansätze in Anspruch genommen, dass sie aufgrund eines besseren Verständnisses der interindividuellen Unterschiede der molekularbiologischen Krankheitsprozesse zu einer auf den individuellen Patienten zugeschnittenen («personalisierten»), gezielteren Therapie («Targeted Therapy») führen (Dugger et al. 2018). Davon soll bereits der Entwicklungsprozess profitieren, beispielsweise

  • präklinisch bei der Entwicklung geeigneter Tiermodelle und bei der Selektion von Wirkstoffkandidaten für die weitere F&E;

  • rationaler durch besseres Verständnis von Wirkmechanismen, Potenzial von Nebenwirkungen bis hin zu Organtoxizitäten und Arzneimittelwechselwirkungen;

  • schneller und kostengünstiger (effizienter) durch Verringerung der für den Wirksamkeitsnachweis benötigten Patientenzahlen in klinischen Studien;

  • effektiver durch Verringerung des F&E-Risikos, u. a. durch die Möglichkeit der prospektiven oder gegebenenfalls post hoc-Stratifizierung;

  • effizienter durch die Ermöglichung innovativer Studiendesigns (zum Beispiel durch «Patient Enrichment»-Strategien, aber auch sogenannte «Basket Trials» und «Umbrella Trials», siehe unten; Abb. 5.3 und 5.4).

Weiterhin wird argumentiert, dass Biomarker als Zielkriterien im Einzelfall eine schnellere Marktzulassung ermöglichen können, wenn sie – wie beispielsweise für HIV-Medikamente geschehen – als Surrogatparameter anerkannt werden (vgl. Baker 2016; Dugger et al. 2018). Allerdings werden die an die Validierung von Surrogatparametern zu stellenden Ansprüche kontrovers diskutiert (vgl. hierzu bei Ciani et al. 2017; Dawoud et al. 2021; Krumholz 2015; Zhang und Ross 2019).

Abb. 5.3
figure 3

Designs klinischer Studien unter Einsatz prädiktiver Biomarker. Definierende Merkmale von «Basket Trials», «Umbrella Trials» und «Platform Trials» nach Park et al. (2019)

Abb. 5.4
figure 4

Einsatz innovativer Studiendesigns in der klinischen Forschung. Zunehmende Verfügbarkeit prädiktiver diagnostischer Informationen korreliert mit der Entwicklung und Anwendung innovativer effizienter F&E-Strategien: «Basket Trials» (dunkelblau), «Umbrella Trials» (blau) und «Platform Trials» (hellblau) seit 2001. Quelle: Park et al. (2019)

5.2.3 Höhere Wahrscheinlichkeit von F&E-Erfolgen

Tatsächlich liegen überwiegend von einer kanadischen Arbeitsgruppe um Jayson Parker an der University of Toronto anekdotische Berichte und mittlerweile auch erste systematische Analysen von Untersuchungen über die Erfolgschancen von klinischen Studien für verschiedene Tumorarten vor, denen zufolge

  • bei fortgeschrittenen oder metastasierten nichtkleinzelligen Bronchialkarzinomen (im Krankheitsstadium IIIb oder IV) die kumulative Erfolgswahrscheinlichkeit bei 62 % liege, wenn die Indikation eine Biomarker-determinierte Patientengruppe einschliesst, gegenüber nur 11 % insgesamt (verglichen mit einem Industriedurchschnitt von 16,5 %) – wobei allerdings 19 der 31 Wirkstoffkandidaten in der Studie nur zwei (EGFR und KRAS) der elf insgesamt eingesetzten Biomarker verwendeten (Falconi et al. 2014);

  • eine Metaanalyse von 351 Behandlungsarmen von 346 Phase I-Studien einer zytotoxischen oder gezielten Monotherapie (mit oder ohne Biomarker) von Patienten mit therapierefraktären malignen Tumoren ergab, dass sich die objektiven Ansprechraten («Objective Response Rates») deutlich zugunsten von Biomarker-gestützten Therapien (Median, 30,6 %, n = 58; versus 4,9 %, n = 293), hämatologischen Erkrankungen versus soliden Tumoren (Median, 21,0 %, n = 79; versus 4,3 %, n = 272) und von gezielten Therapien (mit oder ohne Biomarker versus zytotoxischen Therapien (Median, 7,8 %, n = 234; versus 4,7 %, n = 117) unterschieden, was sich jedoch nur teilweise in signifikanten Unterschieden des progressionsfreien Überlebens (5,7 Monate in n = 7 Studienarmen einer Biomarker-gestützten Therapie versus 3,0 Monate in n = 38 Armen einer «nicht-personalisierten» Therapie; p = 0,049) und keinen messbaren Mortalitätsunterschieden niederschlug (Schwaederle et al. 2016);

  • bei fortgeschrittenen Melanomen (im Stadium III und IV), bei fortgeschrittenen Anthrazyklin- oder Taxan-refraktären Mammakarzinomen, bei metastasierten nichtkleinzelligen Bronchialkarzinomen (im Stadium IIIb und IV) und bei metastasierten kolorektalen Karzinomen (im Stadium IV) die Erfolgswahrscheinlichkeiten klinischer Studien – gemessen in sogenannten «Transition Intensities», die die Rate und die Geschwindigkeit des Übergangs in die nächste klinische Entwicklungsphase abbilden sollen – deutlich besser seien, wenn explorative oder validierte prädiktive Biomarker als Ein- oder Ausschlusskriterien eingesetzt wurden.

5.2.4 Enormer Optimismus in der Fachwelt

Die verfügbaren Daten deuten somit stark darauf hin, dass die erwartbaren Vorteile einer Biomarker-geleiteten gezielten Therapiestrategie bereits in der F&E neuer Wirkstoffe zu einer deutlichen, empirisch nachvollziehbaren Verbesserung der Effektivität und Effizienz von Forschungsprogrammen beitragen. Wie gross der damit verknüpfte Optimismus seitens führender Fachwissenschaftler bereits ist, wird durch den Umstand illustriert, dass von klinisch tätigen Onkologen mit Unterstützung der American Society for Clinical Oncology (ASCO) vorgeschlagen wurde, selbst experimentelle Erstanwendungen neuer Wirkstoffe an Krebspatienten im Rahmen von Phase-I-Studien als «therapeutisch» zu deklarieren (vgl. Adashek et al. 2019; Weber et al. 2015).

Dieser Optimismus, stimuliert von einigen anerkannten therapeutischen Durchbrüchen – darunter der gezielten Therapie HER2-positiver Mammakarzinome, KRAS-Wild Type-kolorektaler Karzinome, EGFR- oder ALK-mutierter Lungenkarzinome (siehe oben), der gezielten Therapie von Melanomen mit BRAF V600E-Mutationen (Chapman et al. 2011), der gezielten Inhibition der BCR-ABL-Fusionsproteine bei chronisch-myeloischer Leukämie (CML; vgl. Borthakur und Cortes 2004), und weitere Beispiele – wird nicht uneingeschränkt geteilt. Zum einen profitiert bislang nur ein Teil aller Krebspatienten von gezielten Therapien – Schätzungen zufolge weniger als fünf Prozent in den Vereinigten Staaten im Jahr 2018 (Marquart et al. 2018) –, weswegen es sich derzeit noch eher um ein Versprechen (mithin «Zukunftspotenzial») als um bereits breitflächig eingetretene Realität handelt. Zum anderen steht die optimistische Position der ASCO in einem Spannungsverhältnis mit etablierten wissenschaftlichen Prinzipien, die ihren Niederschlag in der Etablierung einer kritischen Technologiefolgenabschätzung unter Einbezug bewährter Standards der evidenzbasierten Medizin, der gesundheitsökonomischen Evaluation und des Health Technology Assessment finden (vgl. Kimmelman 2019, 2020; Burris 2020). Als belastbarerer Weg zur Verbesserung der therapeutischen Optionen für Krebspatienten gilt daher die Entwicklung neuer diagnostischer und therapeutischer Technologien unter schrittweiser systematischer Erprobung, Anwendung und Validierung innovativer Studiendesigns.

5.2.5 Innovative Studiendesigns

Die Verfügbarkeit prognostischer und prädiktiver Biomarker sowie das zunehmend bessere Verständnis der komplexen genetischen Ursachen vor allem von Krebserkrankungen und der breitere Zugang zu Next Generation Sequencing- (NGS-) basierter Diagnostik (vgl. unten, Abschn. 5.4.1) ermöglichen die Entwicklung neuer effizienter Designs für klinische Studien (Park et al. 2020). Sowohl «Basket Trials» (mit Einschluss mehrerer Erkrankungen mit einem oder mehreren gemeinsamen molekularen Targets) als auch «Umbrella Trials» (Therapie einer Erkrankung mit mehreren molekularen Targets) werden zunehmend eingesetzt, um Patienten anhand eines oder mehrerer prädiktiver Marker selektiv in die Studie aufzunehmen und/oder zu stratifizieren (vgl. Abb. 5.3 und 5.4); in beiden Szenarien ergibt sich die Notwendigkeit der Präspezifizierung komplexer statistischer Auswertungsstrategien (vgl. Yee et al. 2019).

Prinzipiell können alle genannten Studienformen mit Randomisierung und Kontrollarmen oder, methodisch weniger überzeugend aber in der Praxis häufig vorkommend (vgl. Janiaud et al. 2019), als einarmige («single-armed») Studie mit historischen Kontrollen durchgeführt werden. Von diesen innovativen Designs verspricht man sich bei verringerter genetischer Heterogenität eine erhöhte Erfolgswahrscheinlichkeit der Studien bei oft kleineren benötigten Fallzahlen; sie sind zugleich eine Teilantwort auf das Problem der bei Selektion von (kleineren) Patientensubgruppen mit strengeren Ein- und Ausschlusskriterien schwierigeren Rekrutierung von Studienteilnehmern.

Weitere von prädiktiven Biomarkern abhängige Studiendesigns werden manchmal unter dem Begriff «Platform Trials» subsumiert; dazu gehören neben der möglichen (dann allerdings «prognostischen», nicht «prädiktiven») Selektion von Patientengruppen mit hohem Risiko für einen ungünstigen Verlauf vor allem sogenannte Enrichment-Strategien durch Identifikation und Übergewichtung von Patientengruppen mit hoher Response-Wahrscheinlichkeit, wie sie erfolgreich in der beispielgebenden Entwicklung von Trastuzumab realisiert wurde. Andere zunehmend eingesetzte Strategien in «Platform Trials» sind adaptive Protokolle, die die flexible Diskontinuation und Neuaufnahme von Interventionsarmen ermöglichen (Park et al. 2019; vgl. Abb. 5.3 und 5.4).

5.2.6 Erfolgsvoraussetzungen

Die dynamische Entwicklung hin zu effizienteren F&E-Strategien steht erst am Anfang und wird von kontinuierlichen methodischen Innovationen begleitet. Ihr Erfolg steht und fällt mit der Verfügbarkeit biologisch plausibler Ansätze, der analytischen Qualität, klinischen Genauigkeit unter besonderer Berücksichtigung der präanalytischen Voraussetzungen (Probengewinnung, -qualität und -ergiebigkeit) und der prognostischen Güte der Biomarker-Assays einschliesslich der Prävalenz der Marker, und schlussendlich der Robustheit der gewählten Studiendesigns (vgl. Nosrati und Nikfar 2021; Renfro und Sargent 2017).

Damit die Laboratoriumsmedizin den Erwartungen gerecht werden kann, die den skizzierten Hoffnungen

  • hinsichtlich klinischer Durchbruchsinnovationen im Rahmen der neuen präzisionsmedizinischen Ansätze

    sowie

  • hinsichtlich der Verbesserung der Effektivität und Effizienz klinischer Forschung und Entwicklung

zugrunde liegen, wird es ihre enge Involvierung in alle Phasen des Entwicklungs- und Translationsprozesses neuer methodischer, diagnostischer und therapeutischer Ansätze brauchen (vgl. dazu auch Abb. 5.5).

Abb. 5.5
figure 5

Entwicklung von Targeted Therapies und Companion Diagnostics: Kritische Rolle der Laboratoriumsmedizin. Die parallele Entwicklung, Zulassung und routinemässige Anwendung von zielgerichteten Therapeutika und Companion Diagnostics erfordert das Zusammenwirken zahlreicher Akteure und ist ohne eine funktionsfähige Infrastruktur von Forschungslaboratorien (nicht nur während der präklinischen F&E-Phasen), Klinischen Laboratorien (vor allem ab Beginn der klinischen Entwicklungsphasen) und eine kompetente labormedizinische Versorgungslandschaft nicht denkbar. Eigene Darstellung in Anlehnung an Moore et al. (2012), an Olsen und Jørgensen (2014) und an Valla et al. (2021). Vgl. auch die Abschn. 4.1.2, «Companion Diagnostics», Abschn. 5.6.3 und Abschn. 5.7.2, «Translation»

5.3 Entwicklungspotenziale in der Onkologie

Auch wenn sich präzisionsmedizinische Ansätze noch in einer frühen Phase ihres Technologie-Lebenszyklus befinden und sich deshalb keine abschliessenden Aussagen über ihre zukünftige Kosteneffektivität treffen lassen, so illustrieren doch schon die wenigen nachstehenden frühen Beispiele das enorme Zukunftspotenzial der neueren labordiagnostischen Entwicklungen auf diesem Sektor.

5.3.1 Tumoragnostische Therapien

Tumoragnostische Therapien repräsentieren ein völlig neues Paradigma der gezielten Krebstherapie. Sie orientieren sich weder an der histologischen Krebsart noch an dem Ursprung in einem bestimmten Organ, sondern ausschliesslich auf dem Nachweis spezifischer molekulargenetischer Veränderungen. Seit 2017 liegen in den Vereinigten Staaten die ersten Zulassungen tumorunabhängiger («tumoragnostischer») Indikationen für antineoplastische Wirkstoffe durch die Food and Drug Administration vor (vgl. Seligson et al. 2021; Yan und Zhang 2018; siehe als ergänzende Datenquelle zu den nachstehenden Zulassungen: FDA 2021):

  • der Immun-Checkpoint-Inhibitor Pembrolizumab, ein monoklonaler Antikörper gegen den programmed death- (PD-1-) Rezeptor für die Therapie solider Tumoren mit hochgradiger Mikrosatelliten-Instabilität (MSI-H), einem Mismatch-DNA-Repair- (MMR-) Defekt oder nachgewiesener PD-L1-Expression (2017; vgl. hierzu bei Boyiadzis et al. 2018);

  • Larotrectinib, ein pan-tropomyosin receptor tyrosine kinase- (TRK-) Inhibitor für die Therapie solider Tumore mit einer onkogen aktiven neurotrophic receptor tyrosine kinase- (NTRK-) Genfusion (seit 2018; in der EU seit 2019; vgl. hierzu bei Drilon et al. 2018);

  • Entrectinib, ein TRK- und anaplastic lymphoma kinase- (ALK-) und ROS-1-Inhibitor zur Therapie von soliden Tumoren mit einer NTRK-Genfusion (seit 2019; in der EU seit 2020; vgl. hierzu bei Doebele et al. 2020).

In allen drei Fällen erfolgte die Zulassung durch die FDA auf der Basis von Basket Trials ohne Kontrollarm, die als klinisch relevant eingestufte objektive Ansprechraten und progressionsfreie Überlebenszeiten zeigten. Während aktuell die beschriebenen klinischen Erfolge in Bestätigungsstudien noch überprüft werden, laufen bereits zahlreiche weitere klinische Entwicklungsprogramme für tumoragnostische Wirkstoffe mit molekularen Targets (vgl. Seligson et al. 2021).

5.3.2 Gezielte Therapien solider Tumore

5.3.2.1 Lungenkrebs

Liegt bei einem nichtkleinzelligen Bronchialkarzinom (NSCLC) keine Treibermutation vor, dann empfehlen die nationalen Leitlinien schon heute über die molekulargenetische Standarddiagnostik im Stadium IV hinaus (vgl. Tab. 4.9 im Abschn. 4.2.6.3) eine erweiterte molekulargenetische Analyse (siehe Tab. 5.1).

Tab. 5.1 Erweiterte molekulargenetische Diagnostik bei NSCLC Stadium IV. AWMF, Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften; BRAF, proto-oncogene B-Raf; c-MET, tyrosine-protein kinase Met; DDR2, Discoidin Domain Receptor Tyrosine Kinase 2; FGFR1, Fibroblast growth factor receptor 1; HER2, human epidermal growth factor receptor 2; KRAS, Kirsten rat sarcoma; NCCN, National Comprehensive Cancer Network; NRG, Neuregulin; NTRK, neurotrophic tyrosine receptor kinase; RET, rearranged during transfection; SGMO, Schweizerische Gesellschaft für Medizinische Onkologie. Eigene Darstellung nach AWMF (2018), SGMO (2019; vgl. Griesinger et al. 2019), NCCN (2020)

Interessanterweise haben molekulargenetische Untersuchungsergebnisse auch auf die ursprünglich nicht zu den zielgerichteten Therapien im engeren Sinne gehörenden Checkpoint-Inhibitoren Einfluss. So hat eine Forschungsgruppe um Kauffmann-Guerrero (2020) gezeigt, dass Treibermutationen die Wirksamkeit von Checkpoint-Inhibitoren (Nivolumab, Pembrolizumab, Atezolizumab) beeinflussen können. Zukünftig könnten daher auch bei der Immuntherapie Behandlungsentscheidungen vom Nachweis bestimmter Treibermutationen mitbestimmt werden.

Eine sehr grosse Zahl klinischer Studien prüft derzeit zielgerichtete Therapieansätze gegen die verschiedenen onkogenen Signalwege bei NSCLC (Yuan et al. 2019). Zu den wichtigsten zählt der Adjuvant Lung Cancer Enrichment Marker Identification and Sequencing Trial («ALCHEMIST») des National Cancer Institute (NCI) in den USA (vgl. hierzu bei Govindan et al. 2015), mit dem Targeted Therapies in frühen Stadien der Erkrankung mit kurativer Intention untersucht werden. Die ALCHEMIST-Studie folgt einem Umbrella Design und besteht in ihrem Kern aus drei kontrollierten Substudien, in denen bei EGFR-Mutations-positiven Patienten Erlotinib, bei ALK-positiven Patienten Crizotinib und bei EGFR- und ALK-negativen Patienten Nivolumab über bis zu zwei Jahre Beobachtungszeit geprüft werden (Govindan et al. 2015). Das Biomarker-gestützte Umbrella Design steigert die Effizienz des klinischen Studienmanagement deutlich, weil die Einschlusskriterien für Studienpatienten weitaus weniger restriktiv sind als bei einem auf einen einzigen Subtyp fokussierten klassischen Studiendesign.

5.3.2.2 Darmkrebs

Auch für kolorektale Karzinome wird intensiv nach neuen therapeutischen Ansätzen gesucht. Eine Auswahl vorliegender Ergebnisse für neue Kombinationen unter Einschluss zielgerichteter Wirkstoffe, die sich überwiegend noch in der Erprobung befinden, gibt Tab. 5.2.

Tab. 5.2 Gezielte Therapieansätze bei fortgeschrittenen kolorektalen Karzinomen. Eigene Darstellung

Einerseits befinden sich etliche neue Anti-EGFR-, Anti-Angiogenese-Wirkstoffe und Immun-Checkpoint-Inhibitoren in der klinischen Entwicklung, andererseits erscheinen insbesondere neue Targets wie HGF/c-MET (Hepatocyte Growth Factor und der Tyrosinkinase-Rezeptor mesenchymal epithelial transition factor oder kurz c-MET) vielversprechend (Koncina et al. 2020; Xie et al. 2020). Weitere aktuelle Entwicklungen gelten dem Einsatz gezielter Therapien in der adjuvanten und neoadjuvanten Behandlungssituation (Papaccio et al. 2021; Papachristofilou und Wicki 2021; Xie et al. 2020), der – freilich kostenintensiven – Kombination mehrerer gezielter Wirkstoffe und dem Problem der erworbenen Resistenz oder der Selektion primär resistenter maligner Zellklone gegen antineoplastische Wirkstoffe (vgl. Xie et al. 2020). In diesen Zusammenhängen erweisen sich die neuen labormedizinischen Möglichkeiten, nichtinvasiv mithilfe von «Liquid Biopsies» im Blut zirkulierendes Tumormaterial (Zellen oder freie DNA; vgl. nachstehenden Abschn. 5.4.2 zu neueren Methoden) zu identifizieren und zu charakterisieren, als sehr wertvoll. So erlaubt der Nachweis freier zirkulierender Tumor-DNA nach Therapie mit kurativer Intention im Stadium II der Erkrankung eine prognostische Aussage über das Auftreten von Rezidiven (vgl. Papaccio et al. 2021; Tarazona et al. 2019; Tie et al. 2016). Auch für neuere Multigen-Expressions-Assays (wie Oncotype DX, ColoPrint, ColDX/GeneFX u. a. m.) wurde prognostische Aussagekraft belegt; für deren klinischen Nutzen wäre allerdings ein konkludent nachgewiesener prädiktiver Wert für das Ansprechen auf spezfische gezielte Therapien von grösserem Gewicht. Das ist derzeit noch ein Forschungsthema (vgl. hierzu bei Kelley und Venook 2011; Mas et al. 2019; Koncina et al. 2020; Papaccio et al. 2021; Reece et al. 2019).

5.3.2.3 Brustkrebs

Wie schon für Lungen- und Darmkrebs beschrieben und im Abschn. 4.2.8 angedeutet, wird auch für Mammakarzinome intensiv nach weiteren prognostischen und prädiktiven Biomarkern gesucht (vgl. Coleman und Anders 2017; Rosenbaum und Weisman 2017). Für die Prognoseeinschätzung und die davon abgeleiteten Entscheide über adjuvante medikamentöse Tumortherapien spielen – neben den klassischen klinischen Risikofaktoren – Multi-Gen-Expressionstests eine zunehmend wichtige Rolle. Einige dieser Tests (EndoPredict, OncotypeDX, Prosigna/PAM50) differenzieren 10-Jahres-Risiken zuverlässig unabhängig von Faktoren wie Alter, Tumorgrösse und Nodalstatus (vgl. die AWMF-Leitlinie Mammakarzinom 2021; Schmidt et al. 2016). Sie ermöglichen für viele Patientinnen eine «Deeskalation» der weiteren Therapie durch Verzicht auf eine nebenwirkungsträchtige Chemotherapie ohne Inkaufnahme einer schlechteren Prognose. Beispielsweise wurde für einen auf der Analyse von 70 Einzelgenen basierenden Test belegt, dass Brustkrebspatientinnen in den Krankheitsstadien T1, T2 und T3, maximal drei befallenen regionalen Lymphknoten und keiner Fernmetastasierung und diskordantem Progressionsrisiko (klinisch hoch und genomisch niedrig; in der vorliegend zitierten MINDACT-Studie auch umgekehrt) keinen relevanten Nachteil erlitten, wenn sie auf eine aggressive adjuvante Chemotherapie verzichteten (Piccart et al. 2021).

Die aktuelle AWMF-Leitlinie «Mammakarzinom» in ihrer Fassung von Juni 2021 bezieht sich im Wesentlichen auf einen (im Ergebnis positiven) systematischen Review der American Society for Clinical Oncology (ASCO) aus dem Jahr 2016 (vgl. André et al. 2019; Krop et al. 2017; Harris et al. 2016), enthält aber trotz der sich mehrenden Evidenz (noch) keine abschliessend konsentierte allgemeine Empfehlung zur Rolle methodisch standardisierter und validierter Multigentests beim Entscheid über die Einleitung einer (neo-) adjuvanten Chemotherapie bei Patientinnen mit Lymphknotenbefall. Bei nodal negativen Patientinnen mit definiertem Status (Hormonrezeptoren ER/PR-positiv; HER2-negativ; Recurrence Scores und Altersgruppe) könne dagegen schon heute mit grosser Sicherheit («strength of recommendation: strong» der aktualisierten ASCO-Leitlinie folgend) davon ausgegangen werden, dass der Einsatz von Multigentests (wie OncotypeDX, Prosigna/PAM50 und Mammaprint, sehr wahrscheinlich auch EndoPredict) eine Chemotherapie ohne Verschlechterung ihrer Prognose ersparen kann (vgl. André et al. 2019; Coleman und Anders 2017).

Die Autorinnen und Autoren der AWMF-Leitlinie sehen «einen dringenden Forschungsbedarf für die weitere Untersuchung und klinische Validierung von Genexpressionstests» (AWMF-Leitlinie Mammakarzinom 2021). Zu einer gewissen Zurückhaltung beigetragen haben dürfte die enttäuschend niedrige Konkordanz der verschiedenen kommerziellen Tests (mit Kappa-Werten zwischen 0,33 und 0,60; vgl. hierzu bei Bartlett et al. 2016; Stein et al. 2016), was nicht weniger bedeutet, als dass – Stand heute – unterschiedliche Tests bei ein und derselben Patientin zu unterschiedlichen Therapieempfehlungen führen können (AWMF-Leitlinie Mammakarzinom 2021).

Nicht nur im Kontext von (neo-) adjuvanten systemischen Therapien wird intensiv nach weiteren potenziell prädiktiven Faktoren gesucht. Als aussichtsreich für die Vorhersage des Tumoransprechens gelten die Bestimmung des Ki-67-Proliferationsindex (in der Regel an Gewebematerial aus Stanzbiopsien; vgl. Caldarella et al. 2014 sowie Denkert und von Minckwitz 2014) und der Nachweis Tumor-infiltrierender Lymphozyten («TILs») – erhöhte Zahlen deuten auf eine bessere Prognose (Ingold Heppner et al. 2016; Pruneri et al. 2016; Wang et al. 2016) wie auch – ähnlich wie Marker der Tumormutationslast – auf ein besseres Ansprechen auf Immun-Checkpoint-Inhibitoren (ICPIs) hin (vgl. Adams et al. 2014; Loi et al. 2014; Rosenbaum und Weisman 2017; Schumacher und Schreiber 2015; Wimberly et al. 2015).

5.4 Technologische und methodische Innovationen der Laboratoriumsmedizin

Mit der Entwicklung neuer Technologien und Verfahren wird die Labormedizin entscheidend zum zukünftigen Erfolg der Präzisionsmedizin beitragen. Exemplarisch genannt werden sollen die neuen Möglichkeiten der Genomsequenzierung – die aktuell verbreitete histopathologische Techniken wie die Immunhistochemie (IHC) und die Fluoreszenz-in situ-Hybridisierung (FISH) und darauf beruhende Tests sowie das daran anknüpfende Paradigma «ein (Companion) Test/ein Wirkstoff» in der Zukunft zunehmend ergänzen und teilweise ablösen dürften – und der Untersuchung von Flüssigbiopsien («Liquid Biopsies») – welche mit der invasiven Gewinnung von Gewebeproben verknüpfte Limitationen zu überwinden versprechen.

5.4.1 Next Generation Sequencing (NGS)

Frühere Methoden der DNA-Analyse beruhen (im Fall der Sanger-Sequenzierung) auf enzymatischen oder (im Fall des Maxam-Gilbert-Verfahrens) auf chemischen Techniken und sequenzieren nur einzelne DNA-Abschnitte, die dann aufwendig zusammengefügt werden müssen. Mit dem Next Generation Sequencing, für das mittlerweile zahlreiche Technologieplattformen zur Verfügung stehen, gelingt mit Hilfe massiv-paralleler Hochdurchsatz-Sequenzierung die weitgehende Automatisierung, Beschleunigung und Kostensenkung des Prozesses, so dass ein gesamtes menschliches Genom innert weniger Stunden sequenziert und mit einem Referenzgenom abgeglichen werden kann (Behjati und Tarpey 2013; Metzker 2010; Tucker et al. 2009; Voelkerding et al. 2009; vgl. Tab. 5.3).

Tab. 5.3 «Next Generation Sequencing» (NGS)-basierte Untersuchungsverfahren. Quelle: RKI (2019; mit freundlicher Genehmigung der Gendiagnostik-Kommission beim Robert Koch-Institut)

Auf NGS beruhende Verfahren (Tab. 5.3) haben in den vergangenen Jahren eine stürmische Entwicklung erlebt. Seit der erstmaligen Zulassung eines NGS-basierten Mutationstests auf BRCA1/BRCA2 des 2010 gegründeten Unternehmens Foundation Medicine Inc. mit Sitz in Cambridge, Massachusetts, durch die amerikanische Food and Drug Administration (FDA) im Dezember 2016 (als Voraussetzung für eine gezielte Therapie des Ovarialkarzinoms mit Rucaparib; vgl. hierzu bei Balasubramaniam et al. 2017) wurden schon sieben auf der NGS-Technologie fussende Companion Diagnostics durch die FDA zugelassen (Jørgensen 2021; vgl. Abschn. 4.1.2, Abb. 4.2). Bei den meisten NGS-basierten Tests handelt es sich allerdings um zielgerichtete parallele Analysen ausgewählter Gene, sogenannte «Multi-Gen-Panelanalysen» oder kurz «NGS-Panels», deren prognostische oder prädiktive Bedeutung nur für bestimmte Krankheitsbilder belegt ist (vgl. die oben diskutierten Beispiele bei Darm- und Brustkrebserkrankungen).

Nur in Einzelfällen klinisch eingesetzt wird die NGS-basierte Analyse aller kodierenden Bereiche (das sind anteilig etwa ein bis zwei Prozent) des menschlichen Genoms (sogenannte Exomsequenzierung, «Whole Exome Sequencing», WES). Analysen aller 6,6 Mrd. Basenpaare des humanen Genoms (Vollsequenzierungen, «Whole Genome Sequencing», WGS) sind demgegenüber bisher Forschungskontexten vorbehalten.

5.4.2 Flüssigbiopsien («Liquid Biopsies»)

Für die Gewinnung von Gewebeproben für die histopathologische Untersuchung stehen verschiedene Techniken von Feinnadelpunktionen über Stanzbiopsien unter Lokalanästhesie bis hin zu offenen Biopsien in der Regel unter Vollnarkose zur Verfügung (Pollack 2018). Für diese Massnahmen gilt, dass sie umso ungenauer sind, je einfacher und kostengünstiger sie durchgeführt werden können, während offene Biopsien einen operativen Eingriff bedingen. Ihnen allen ist gemeinsam, dass sie – weil invasiv und die Patienten belastend – nicht beliebig wiederholt werden können.

Als Alternative zu wiederholten Gewebeentnahmen bieten sich Flüssigbiopsien («Liquid Biopsies») an, die aus einfachen Blutproben gewonnen werden können. Sie wurden ursprünglich für nicht-invasive Pränataltests entwickelt, werden aber in Kombination mit NGS-Techniken vermehrt für die Erstcharakterisierung und für die Verlaufskontrolle von Tumorerkrankungen eingesetzt (Amstutz 2018). Ausgangsmaterial können ausser peripherem Blut auch andere Körperflüssigkeiten sein, zum Beispiel Urin, Pleuralflüssigkeit, Aszites, oder Liquor cerebrospinalis. Das klinische Potenzial von Flüssigbiopsien ist enorm; nicht nur könnte die Tumorlast von Patienten ohne operativen Eingriff schnell und effizient festgestellt werden, sondern es sind auch ein Monitoring des Therapieansprechens und eine frühe Erkennung von Mutationen des Tumors möglich, was wiederum rechtzeitige Therapieanpassungen erlaubt.

Flüssigbiopsien ermöglichen sowohl die Analyse zellfreier zirkulierender Tumor-DNA («circulating tumor DNA», ctDNA; vgl. Oellerich et al. 2017; Thierry et al. 2016) als auch von zirkulierenden Tumorzellen («circulating tumor cells», CTCs). Nachdem Untersuchungen an Patienten mit Darm- und Prostatakrebs die Konkordanz der Genomanalysen aus CTCs und Gewebeproben von Primärtumoren und Metastasen (vgl. Alix-Panabières und Pantel 2014; Heitzer et al. 2013; Lohr et al. 2014; Scher et al. 2015) belegten, hat sich die Bestimmung von ctDNA zum Beispiel bei kolorektalen Karzinomen als sehr nützlich erwiesen, um den Erfolg operativer Massnahmen und das Risiko von Rückfällen zu bewerten, die bestgeeignete gezielte Therapie auszuwählen und den Erfolg einer systemischen Therapie zu überwachen (vgl. hierzu bei Koncina et al. 2020; Mas et al. 2019; Reece et al. 2019; Siravegna et al. 2015).

Rezidive lassen sich so früher erkennen und auf ihren Mutationsstatus untersuchen als etwa mittels radiologischer Diagnostik (Frenel et al. 2015; Thierry et al. 2014). Auch die Tumormutationslast («Tumor Mutational Burden», TMB) lässt sich an ctDNA bestimmen. Es gibt starke Hinweise darauf, dass die Messung der TMB helfen kann, Responder auf eine Therapie mit Immun-Checkpoint-Inhibitoren ex ante zu identifizieren (vgl. hierzu bei Domingo et al. 2018; Schrock et al. 2019).

Nach dem erfolgreichen «Proof of Concept» gehört es zu den grossen Herausforderungen für die Laboratoriumsmedizin, die Translation der Methode in die qualitätsgesicherte Alltagsversorgung ins Werk zu setzen (vgl. Nikolaev et al. 2018; Godsey et al. 2020; Andersson et al. 2021; Bourbon et al. 2021; siehe auch Abschn. 5.7.2, «Translation»).

5.5 Entwicklungspotenziale ausserhalb der Onkologie

Die Innovationsdynamik und das Zukunftspotenzial der Laboratoriumsmedizin wird in der stürmischen Entwicklung der Krebsmedizin und auf molekulare Zielstrukturen und immunologische Mechanismen zielende neue Therapieansätze besonders augenfällig, aber sie ist keinesfalls auf diesen Bereich beschränkt.

5.5.1 Nichtübertragbare Krankheiten

5.5.1.1 Morbus Alzheimer

Aus den neurologischen und neurodegenerativen Erkrankungen ragt die Gruppe der Demenzen, und innerhalb jener die Alzheimer-Erkrankung, mit Blick auf ihre gegenwärtige – und angesichts der demografischen Entwicklung zukünftige – Relevanz heraus. Sie markieren einen der Spitzenplätze auf der Rangliste der Gesundheitsstörungen mit der höchsten Prävalenz, trotz der Altersverteilung einer grossen Krankheitslast (für aktuelle Daten siehe 2020 Alzheimer‘s Disease Facts and Figures 2020) und hohen Kosten, vor allem im Bereich der Pflege (vgl. hierzu u. a. auch bei Wieser et al. 2014).

Solange keine nachhaltig wirksamen Therapien der Alzheimer-Demenz zur Verfügung stehen, muss der klinische und gesundheitsökonomische Nutzen einer frühen Diagnostik angesichts fehlender praktischer Konsequenzen im Nebel des Ungefähren und Hypothetischen bleiben. Dementsprechend kann auch hochentwickelter Diagnostik gemäss der Klassifikation von Fryback und Thornbury (1991) gegenwärtig maximal ein patientenrelevanter oder gesellschaftlicher Nutzen auf dem «Level 3» zugeordnet werden (vgl. Abschn. 3.4.2).

Aktuell wird die Diagnose «Morbus Alzheimer» anhand des klinischen Bildes und der Befunde bildgebender Verfahren bei gleichzeitigem Ausschluss anderer möglicher Ursachen kognitiver Störungen gestellt.

Mit der Erkenntnis, dass es sich um einen über viele Jahre, wenn nicht Jahrzehnte ablaufenden pathogenetischen Prozess handelt, bevor klinische Symptome auftreten, hat sich das wissenschaftliche Interesse den Frühstadien und ihrer Erkennung zugewandt (Braak et al. 2011). Das wird reflektiert vom A/T/N-Klassifikationssystem, das den Fokus auf die Prozesse der abnormen Amyloid-ß-Akkumulation und der Hyperphosphorylierung von Tau-Proteinen sowie auf (unspezifische) neurodegenerative Veränderungen legt (Andersen et al. 2021). Entsprechende Biomarker lassen sich frühzeitig im Liquor cerebrospinalis nachweisen (vgl. Andersen et al. 2021), dessen Gewinnung eine nicht sehr belastende Lumbalpunktion voraussetzt. Neuere labordiagnostische Ansätze zielen darauf ab, A/T/N-Variablen im peripheren Blut nachzuweisen und damit sowohl bildgebende Verfahren als auch Lumbalpunktionen zu ergänzen und perspektivisch zu ersetzen (Doecke et al. 2020). Aktuelle Forschungsthemen sind die Validität von Markern für neuroinflammatorische Prozesse (Bradburn et al. 2019), synaptische Dysfunktion (Reddy 2017; Villa et al. 2020) und Störungen der Blut-Hirn-Schranke (Bowman et al. 2018). Insgesamt ist es fair zu sagen, dass die Entwicklung der Frühdiagnostik des M. Alzheimer der Entwicklung therapeutischer Optionen weit vorausgeeilt ist.

Auch wenn der Einsatz von Biomarkern in der Routineversorgung daher mangels nachhaltiger therapeutischer Konsequenzen noch keinen grossen Nutzen stiften kann, so trägt er doch schon jetzt durch die Ermöglichung von Enrichment Designs in der klinischen F&E zu einer effektiveren und effizienteren Entwicklung neuer Therapeutika bei (vgl. Collins et al. 2017).

5.5.1.2 Rheumatoide Arthritis (RA)

Derzeit ist die Evidenzstärke für die Prädiktion des klinischen Ansprechens und einer Remission noch zu schwach, als dass der Einsatz von Biomarkern für eine auf Patientenebene individualisierte Therapie der RA in der alltäglichen Praxis schon hinreichend begründbar wäre (vgl. Fiehn et al. 2018; Aletaha 2020; für eine Diskussion von Zukunftsperspektiven auch Acosta-Herrera et al. 2019, und, spezifisch die Rolle des HLA-DRB1-Gens adressierend, Wysocki et al. 2020). Aktuelle Forschungsprojekte gehen der Frage nach, ob die Marker p-p38, lkBa, p-NFkB und CD86 zur Frühidentifikation von RA-Patienten und als mögliche Zielstruktur von therapeutischen Ansätzen geeignet sind (nach Bader et al. 2019).

Andere Projekte gelten der Verbesserung der verfügbaren Marker. Die Tests auf Anti-CCP-Antikörper befinden sich bereits in der dritten Generation der Weiterentwicklung, mit dem Ziel, die Sensitivität und Spezifität noch weiter zu verbessern (vgl. Ji et al. 2018). Wieder andere Bestrebungen konzentrieren sich auf die Erforschung von weiteren Autoantikörpern gegenüber citrullinierten Antigenen. So scheint das mutierte citrullinierte Vimentin (MCV) Einfluss auf den periartikulären Knochenschwund bei RA Patienten auszuüben und zudem bei der frühen RA eine höhere Sensitivität bei gleicher Spezifität gegenüber dem anti-CCP aufzuweisen (Engdahl et al. 2017). Die Korrelation von Antikörperreaktivität und Krankheitsaktivität sowie struktureller artikulärer Progression scheint für die Anti-MCV-Antikörper enger zu sein als für die Anti-CCP-Antikörper (vgl. Mathsson et al. 2008).

5.5.1.3 Akuter Myokardinfarkt

Aktuelle Bestrebungen zielen vor allem darauf ab, sogenannte Point-of-Care- (PoC-) Tests zur Messung von hs-cTn weiterzuentwickeln und zugleich einen noch genaueren (vor allem spezifischeren) Marker als das Troponin zu finden. So arbeiten Forscherteams aus der Schweiz mit neuartigen Tests wie dem PoC-hs-cTnI-TriageTrue (Boeddinghaus et al. 2020) und (prognostischen) Markern wie beispielsweise MRP8/14 oder ST2 (vgl. Übersichten hierzu finden sich unter anderem bei Biaggi et al. 2019; Walz et al. 2019). Das Verbesserungspotenzial, das neue PoC-Tests versprechen, illustrieren erst unlängst im März 2020 publizierte Zwischenergebnisse der multizentrischen Advantageous Predictors of Acute Coronary Syndromes Evaluation- (APACE-) Studie (Boeddinghaus et al. 2020). Sie belegen eine hohe diagnostische Genauigkeit («Accuracy») des untersuchten POC-hs-cTnI-TriageTrue-Tests, die in einem Kollektiv von 1261 Patienten (aus Notfallaufnahmen mit klinischem Verdacht auf NSTEMI) derjenigen der besten validierten Labortests mindestens ebenbürtig war. Anschlussuntersuchungen werden die Übertragbarkeit dieser vielversprechenden Daten auf andere Settings und Patientenpopulationen prüfen müssen.

Aber auch das Potenzial der verfügbaren hs-cTn-Tests ist mit ihrer Anwendung in der Diagnostik des akuten Koronarsyndroms (ACS; siehe Abschn. 4.4) längst nicht ausgeschöpft. Denn erhöhte Werte von hs-cTn-I und hs-cTn-T sind unabhängige Prädiktoren erhöhter Sterblichkeit in der Normalbevölkerung und besonders in Risikogruppen wie beispielsweise Patienten mit koronarer Herzkrankheit, nach einem bereits stattgehabten Myokardinfarkt oder anderen Herz-Kreislauf-Erkrankungen (vgl. Jansen et al. 2019; Lippi et al. 2019). Gesundheitsökonomische Modellierungen bieten erste Hinweise darauf, dass sogar ein bevölkerungsweites Screening kosteneffektiv, unter bestimmten Bedingungen bei Vermeidung kardiovaskulärer Ereignisse sogar kostensenkend sein könnte (Jülicher und Varounis 2021).

5.5.2 Übertragbare Krankheiten

5.5.2.1 Sepsis

Eine Sepsis ist immer ein medizinischer Notfall; schnelle Diagnose und Therapiebeginn innert einer Stunde sind prognostisch ausschlaggebend. Die Geschwindigkeit der klassischen kulturellen Erregerdiagnostik ist jedoch durch die Teilungsraten der Mikroorganismen biologisch limitiert, weshalb die Ergebnisse kulturbasierter Verfahren nicht rechtzeitig zur Verfügung stehen, um die initiale «empirische» Antibiotikatherapie zu beeinflussen.

Zwar ist die mikrobiologische Diagnostik eindeutig nutzenstiftend für eine spezifische Antibiotikatherapie nach Erregeridentifizierung und Resistenztestung, und darüber hinaus auch als Informationsquelle für die «empirische» Therapie, aber eben immer noch zu langsam – trotz kontinuierlicher technologischer und apparativer Verbesserungen.

Die derzeit verfügbaren Methoden (Abb. 5.6) brauchen eine optimale Integration in diagnostische Abläufe, um ihr Nutzenpotenzial voll zu entfalten. Die zunehmend komplexen und sehr aufwendigen Multiplex- und Breitband-PCR-basierten molekularen Methoden sind vielversprechend, aber besonders bei universellen Ansätzen kontaminationsgefährdet und bedürfen insbesondere zur Resistenzprüfung komplementärer phänotypischer Methoden (vgl. Frei 2021; Idelevich et al. 2018).

Abb. 5.6
figure 6

Molekulare Diagnostik bei Sepsis. Quellen: Liesenfeld et al. (2014), Venkatesh et al. (2010), vgl. auch Idelevich et al. (2018). FISH, Fluoreszenz-in-situ-Hybridisierung; MALDI-TOF MS, Matrix Assisted Laser Desorption Ionization – Time of Flight Mass Spectrometry; PCR, Polymerase Chain Reaction. Molekulare Methoden zur Diagnostik der Sepsis: Amplifikationstechniken: Nukleinsäureamplifikationstests wie PCR beschleunigen den Erregernachweis und erreichen für schwierig oder nicht kultivierbare Erreger eine höhere Sensitivität und Spezifität, wobei sie abhängig sind von der Auswahl der Zielstrukturen, der Primer- und Sondenkomposition und den PCR-/Microarray-Reaktionsbedingungen; Hybridisierungstechniken: Durch Methoden der Hybridisierung wie FISH können gesuchte Erbinformationen (DNA-Sequenzen) der beispielsweise zu diagnostizierenden Erreger spezifisch und schnell entdeckt werden; Nicht Nukleinsäure-basierte Techniken: Alternative Methoden zu den heute sehr viel häufiger verwendeten Nukleinsäure-basierten Techniken (insbesondere der PCR-Methode), die als weniger schnell und zudem (bei bestimmten Erregern) als weniger spezifisch gelten; Post-Amplifikationstechniken: PCR in Kombination mit/plus insbesondere MALDI-TOF MS sind sehr schnell (einige Minuten) und kostengünstig bei einer zugleich hohen Spezifität der einzelnen Analysen

Das von der WHO gesetzte Idealziel eines diagnostischen Tests ist jedenfalls noch nicht vollständig realisiert. Dieses Profil sollte umfassen

  1. (1)

    schnelle Identifikation der Erreger (Bakterien, Viren, Parasiten, Pilze),

  2. (2)

    hohe Sensitivität und Spezifität zur Steuerung der antimikrobiellen Therapie, einschliesslich Vermeidung von Übermedikation und Resistenzentwicklung,

  3. (3)

    einfach zu gewinnendes und zu verarbeitendes Testmaterial,

  4. (4)

    simultane Identifikation zahlreicher Pathogene,

  5. (5)

    Erkennung von Antibiotika-Resistenzen,

  6. (6)

    einfache Anwendung

    und

  7. (7)

    niedrige Kosten (WHO 2020a) beziehungsweise Kosteneffektivität.

5.5.2.2 Andere Infektionskrankheiten

Die derzeit meist PCR- bzw. zunehmend Multiplex-PCR-basierten molekulardiagnostischen Techniken haben sich in der Infektiologie generell als sowohl schnellste als auch – mit Ausnahme der langsameren Kulturtechniken – sensitivste Methodik für den direkten Nachweis pathogener Mikroorganismen und Viren einen festen Platz erobert. Sie sind dann von besonderem Wert,

  • wenn – wie im Fall akuter Blutstrominfektionen und der Sepsis – das Zeitfenster für die Einleitung einer kausalen antimikrobiellen Therapie sehr klein ist;

  • wenn die Krankheitserreger schwierig, nur sehr langsam oder gar nicht kultivierbar sind;

  • wenn in der akuten Phase einer infektiösen Erkrankung noch keine Antikörper nachweisbar sind;

  • wenn Patienten nur eine geringe bzw. keine Antikörperantwort zeigen können wegen einer Immunsuppression (zum Beispiel im Rahmen einer HIV-Infektion, einer Organtransplantation oder einer malignen Erkrankung);

  • wenn der Erfolg einer Therapie kontrolliert werden muss (zum Beispiel zur Dokumentation einer Sustained Viral Response bei Hepatitiden; siehe dort, Abschn. 4.6.1 bis 4.6.6);

  • wenn nach Resistenz- oder Virulenzgenen gesucht wird, was jedoch relevante posttranslationale und epigenetische Proteinmodifikationen nicht aufzudecken vermag (siehe zum Beispiel Kessler 2014; Munson 2017; Dicks und Stout 2019; Islam und Iqbal 2020; u. v. a. m.).

5.6 Nutzen und Kosten/Nutzen-Verhältnis der «Präzisionsmedizin»

Die klinische Effektivität, der Nutzen und erst recht die Kosteneffektivität und, noch weiter gefasst, das Kosten/Nutzen-Verhältnis beziehungsweise die «Effizienz» der neueren labormedizinischen Entwicklungen kann noch nicht abschliessend beurteilt werden; vielfach stehen die Methoden auch gerade erst an der Schwelle zur Routinetauglichkeit und noch vor ihrer Anwendung in der Breite der Versorgung. Insoweit besteht hier das typische Dilemma, einen angemessenen Umgang mit der unvermeidbaren Unsicherheit in den frühen Phasen eines Technologielebenszyklus finden zu müssen; prägnant popularisiert in dem bekannten Diktum des Gesundheitsökonomen Martin Buxton von der Brunel University in London (1987): «It’s always too early [to evaluate] until, unfortunately, it’s suddenly too late …»Footnote 3

Die wichtige Frage nach dem Verhältnis von Kosten und Nutzen der skizzierten technologischen Entwicklungen erweist sich bei näherer Betrachtung als ausserordentlich vielschichtig. Zwar haben sich die im Abschnitt «Hauptergebnisse» diskutierten diagnostischen Tests unter dem Aspekt ihrer Wirtschaftlichkeit durchweg sehr positiv dargestellt. Dieser ermutigende Befund ist jedoch gegenwartsbezogen und betrifft in der Vergangenheit entwickelte Techniken; er lässt sich nicht voraussetzungslos in die Zukunft extrapolieren.

So sind Besorgnisse über die Kostenfolgen der «Präzisionsmedizin» weit verbreitet (vgl. hierzu u. a. bei Geruso et al. 2018; Nocera 2014; SMA Schweiz 2018), drastisch zum Beispiel Thomas Ferkol und Paul Quinton (2015) in einem Editorial: «Clinicians are increasingly incensed by the shocking cost of precision medicine

Auch wenn der Fokus der medialen und politischen Aufmerksamkeit auf den Preisen von zielgerichteten Krebsmedikamenten und neuen Therapien gegen seltene Erkrankungen liegt, wird damit in letzter Konsequenz doch die gesamte Vision der Präzisionsmedizin aus ökonomisch begründeter Besorgnis auf den Prüfstand gestellt (vgl. zum Beispiel EPFL IGRC 2018; Bundesärztekammer 2020).

5.6.1 Angewandte Gesundheitsökonomie

In den Proceedings eines Workshops des U.S.-amerikanischen Institute of Medicine (IoM 2013) findet sich dazu die Feststellung, «the best result is when outcomes improve and costs go down. The worst is when outcomes become worse and costs increase. Most (precision medicine) interventions in healthcare result in higher costs with improved outcomes».

In der Welt der Gesundheitsökonomie wird dieses Diktum meistens übersetzt in die Frage, wieviel mehr die Bürger für einen bestimmten Gesundheitsgewinn («Outcome») zu zahlen bereit seien. Der Gesundheitsgewinn wird dann häufig operationalisiert als die Zahl der mittels einer Massnahme statistisch gewonnenen qualitätsadjustierten Lebensjahre («Quality-Adjusted Life Years», QALYs; zum Konzept der QALYs, vgl. im Kap. 3 den Abschn. 3.2.3) im Vergleich zu einem therapeutischen Standard. Die Kosten werden in der Praxis ganz überwiegend aus der Perspektive eines Kostenträgers bestimmt (zum Kostenbegriff der Gesundheitsökonomen, vgl. auch im Kap. 3 den Abschn. 3.4.3).

So kann dann berechnet werden, wieviel zusätzliche Franken benötigt werden, um einen bestimmten zusätzlichen Gesundheitsgewinn zu erzielen. Ein zentrales Mass dafür ist die inkrementelle Kosteneffektivitäts-Relation («Incremental Cost Effectiveness Ratio», ICER; siehe Abb. 5.7 und 5.8). Dieser Quotient kann erweitert werden, um als derivative Masse Net Health Benefits («NHBs») und Net Monetary Benefits («NMBs») zu bestimmten oder Unsicherheit in ICER-Konfidenzintervallen und Cost Effectiveness Acceptability Curves («CEACs») auszudrücken.

Abb. 5.7
figure 7

Angewandte Gesundheitsökonomie: Logik der Kosteneffektivität. (1) Kosten-Effektivitäts-Diagramm. Gegenüber dem Komparator im Zentrum kann eine neue medizinische Intervention oder «Technologie» mehr kosten und weniger wirksam sein – sie gilt dann als «inferior»; weniger kosten und wirksamer (also «dominant») sein, oder weniger kosten und weniger effektiv sein (selten) oder mehr kosten und effektiver (häufig bei neuen Techniken) sein. Im letztgenannten Fall kommt es auf das Verhältnis von Mehrkosten zu Mehrnutzen an (siehe Abb. 5.8). Lehrbuchmässige Darstellung beispielsweise nach Black (1990), Gold (1996), Schlander (2005, 2009), Drummond et al. (2015)

Abb. 5.8
figure 8

Angewandte Gesundheitsökonomie: Logik der Kosteneffektivität. (2) Inkrementale Kosten-Effektivitäts-Relation («Incremental Cost Effectiveness Ratio», ICER). Lehrbuchmässige Darstellung beispielsweise nach Black (1990), Gold (1996), Schlander (2005, 2009), Drummond et al. (2015)

Die zitierte Überlegung des Institute of Medicine (IoM 2013) reflektiert die konventionelle Logik der Kosteneffektivität (Abb. 5.7 und 5.8), besticht durch ihre Plausibilität und entspricht der heute weit verbreiteten Evaluationspraxis der angewandten Gesundheitsökonomie. Sie hat in international sehr unterschiedlichem Umfang Eingang gefunden in die Sphäre der «Health Technology Assessments» (HTAs), für die beansprucht wird, in einem multidisziplinären Prozess «die medizinischen, sozialen, ökonomischen und ethischen Implikationen des Einsatzes von medizinischen Verfahren und Produkten systematisch, transparent und verlässlich (‚robust‘) zu evaluieren» (Schlander et al. 2011).

Für eine nähere Betrachtung der Evaluationskriterien und ihre Implikationen erscheint es sinnvoll, einerseits zwischen einer akademischen Sichtweise und ihrer politischen Umsetzung in der regulatorischen Praxis, sowie andererseits zwischen den beiden wesentlichen Komponenten von HTAs, der Bewertung der (klinischen) Effektivität und der Wirtschaftlichkeit («Effizienz»; «Value for Money») zu differenzieren.

5.6.2 Bewertung des klinischen Nutzens

Die akademische Perspektive der Nutzenbewertung ist einerseits geprägt von den Prinzipien der evidenzbasierten Medizin (EBM) und andererseits den Besonderheiten von diagnostischen Verfahren.

Erstere berücksichtigen die Relevanz der beeinflussten Outcomes und die beobachtete Effektgrösse. Der «Grad des Vertrauens» in die beobachteten Effekte reflektiert die Wahrscheinlichkeit, dass zukünftige Forschung die beobachteten Effekte bestätigen wird und leitet sich aus dem Niveau und der Qualität (besonders hinsichtlich möglicher Verzerrungspotenziale oder Inkonsistenzen) der vorliegenden Evidenz ab, mit randomisierten klinischen Studien an der Spitze der Hierarchie, gefolgt von prospektiven Kohortenstudien, retrospektiven Studien, Fallstudien, und Expertenmeinungen am unteren Ende der Skala:

  1. I.

    a. Evidenz durch Meta-Analysen von mehreren randomisierten, kontrollierten Studien,

    b. Evidenz aufgrund von mindestens einer randomisierten, kontrollierten Studie;

  2. II.

    a. Evidenz aufgrund von mindestens einer nicht randomisierten kontrollierten Studie,

    b. Evidenz aufgrund von mindestens einer quasi-experimentellen Studie;

  3. III.

    Evidenz aufgrund nicht-experimenteller deskriptiver Studien, wie etwa Vergleichsstudien, Korrelationsstudien oder Fall-Kontroll-Studien;

  4. IV.

    Evidenz aufgrund von Expertenmeinungen bzw. klinischer Erfahrung (vgl. Schlander et al. 2012; siehe hierzu auch Guyatt et al. 2011).

Für die Berücksichtigung der Besonderheiten diagnostischer Verfahren können in Anlehnung an den in der vorliegenden Arbeit angewendeten klassischen Vorschlag von Dennis G. Fryback und John R. Thornbury (1991) als instrumentelle Variablen die technische Qualität und Validität (Reliabilität, Machbarkeit, Trennschärfe; «Level 1»), die diagnostische Validität (Sensitivität, Spezifität, Diagnosegenauigkeit, prädiktiver Wert; «Level 2»), der diagnostische Impact (Auswirkungen von Testbefunden auf die Diagnosefindung; «Level 3»), der therapeutische Impact (Einfluss von Testbefunden auf Therapieentscheide; «Level 4») hinzugefügt werden. «Level 5» (Wirksamkeit»/patientenbezogener Nutzen) bezieht sich dann schon auf patientenrelevante Outcomes, während erst «Level 6» nach Fryback/Thornbury («Nutzen aus gesellschaftlicher Sicht») ökonomische Messgrössen (Kosten/Nutzen-Relation, idealerweise aus einer gesamtgesellschaftlichen Perspektive) adressiert.

5.6.3 Regulatorischer Kontext

Im regulatorischen Kontext haben sowohl in den USA als auch in Europa die formalen Kriterien eine erhebliche Verschärfung erfahren (vgl. dazu auch den Abschn. 2.4 zum «Regulatorischen Umfeld» als Ausgangssituation). Mit Blick auf die Situation in der Schweiz ergibt sich das nachfolgende skizzierte Bild.

Die Anwendung labormedizinischer Massnahmen unterliegt grundsätzlich hohen Anforderungen, welche bei der Evaluation respektive Validierung von Labortests oder diagnostischer Methoden zu beachten sind. Primär zu nennen sind hierbei die technische Qualität oder analytische Validität sowie die diagnostische Validität (siehe hierzu Guyatt et al. 1986; The Lewin Group 2009; Van den Bruel et al. 2007; vgl. auch den Abschn. 1.1, sowie Köbberling 1991; Saah und Hoover 1997).

Einen zentralen Bestandteil der Labormedizin stellt die Qualitätssicherung dar, worunter sowohl die analytische als auch diagnostische Qualität labormedizinischer Leistungen fallen. Laboratorien haben im medizinischen Bereich eine Vorreiterrolle betreffend der kontinuierlichen Qualitätsverbesserung eingenommen, wie die Vielzahl standardisierter Messverfahren und Prozesse, Kalibratoren sowie Kontrollmechanismen zeigt.

Wesentliche Grundlagen für die Qualitätssicherung in der Schweiz finden sich sowohl auf gesetzlicher als auch organischer Ebene wieder, sowie in Form von Richtlinien in den Laboratorien. Das BAG sieht in den Vorbemerkungen der Eidgenössischen Analysenliste (vgl. BAG Analysenliste 2021) die Einhaltung von Qualitätsvorgaben vor, wovon in der Folge die Erstattung der Leistungen durch die OKP abhängt. Bereits im Juli 1994 haben zudem die auf der Ebene des Bundes zuständigen Partnerorganisationen (darunter die FAMH und FMH) einen Grundvertrag in Kraft gesetzt und führen gemäss des zugrundeliegenden Qualitätskonzepts die notwendigen Qualitätssicherungsmassnahmen durch. Als vertraglich eingesetztes Organ ist die Schweizerische Kommission für Qualitätssicherung im medizinischen Labor (QUALAB) für die Umsetzung verantwortlich (QUALAB 2020). Die Richtlinien für die interne Qualitätskontrolle in medizinischen Laboratorien wurden durch die QUALAB eingeführt. Eine interne wie auch die externe Qualitätskontrolle mit einem einheitlich hohen Qualitätsstandard stellt dabei einen integralen Bestandteil der Kriterien für das Betreiben eines medizinischen Labors (KBMAL) dar (SULM 2016).

Da labormedizinische Massnahmen für die Diagnosestellung, Therapieeinleitung und Überwachung von Patienten unverzichtbar sind, stellen sowohl ihre Objektivität als auch ihre Transparenz wesentliche Voraussetzungen dar, die das Vertrauen der Ärzteschaft in eine qualitätsgesicherte Labordiagnostik begründet. Vor diesem Hintergrund sind die zugrundeliegenden Regulationen auf nationaler sowie europäischer Ebene von erheblicher Bedeutung für die Labormedizin in der Schweiz.

5.6.3.1 Regulation in der Schweiz

In der Schweiz sind die labormedizinischen Leistungen im KVG unter Artikel 52 reguliert, worunter alle Analysen und Arzneimittel, Mittel und Gegenstände fallen. Unter Berücksichtigung der Grundsätze nach den Artikeln 32 Absatz 1 (Voraussetzungen: «WZW» der durch die OKP zu erstattenden Leistungen) und 43 Absatz 6 (Grundsatz: hohe Qualität und zweckmässige gesundheitliche Versorgung zu möglichst günstigen Kosten) ist unter Absatz 1 die Liste mit Analysen und den zugehörigen Tarifen benannt (vgl. KVG 2020). Die Analysenliste (AL) enthält diejenigen Analysen, deren Kosten von der OKP übernommen werden (vgl. BAG Analysenliste 2021). Nach Artikel 52 Absatz 3 des KVG enthält die Analysenliste folglich auch die höchsten zu verrechnenden Tarife, Preise und Vergütungsansätze für sämtliche Analysen und (Labor-) Leistungen. Darüber hinaus benennt der Schweizer Bundesrat die im Praxislabor von Ärzten vorgenommenen Analysen, für die der Tarif nach den Artikeln 46 (Tarifvertrag) und 48 (Tarifverträge mit Ärzteverbänden) des KVG festgesetzt werden kann (vgl. KVG 2020).

5.6.3.2 Regulation in Europa

Aktuelle Verordnungen über Medizinprodukte («Regulation on Medical Devices», MDR) und In-vitro-Diagnostika («Regulation on In-Vitro Diagnostic Medical Devices», IVDR) bestehen ausschliesslich auf europäischer Ebene (vgl. Swissmedic 2019). Während die von der Schweiz übernommenen Verträge des Systems der Konformitätsbewertung beziehungsweise Zertifizierung (sogenannte «CE-Zertifizierung») der Europäischen Union (MDR/EU 2017/745) vorliegend nicht näher diskutiert werden sollen, folgt nachstehend eine vorläufige Einordnung und Beschreibung der neuen EU-Verordnung zu In-vitro-Diagnostika (IVDR/EU 2017/746).

EU-Verordnung «In Vitro Diagnostics Regulation (IVDR)/(EU) 2017/746». Die neue Verordnung zu IVD (In Vitro Diagnostics Regulation (IVDR), (EU) 2017/746) ist am 5. Mai 2017 im EU-Amtsblatt bekannt gemacht worden und am 25. Mai 2017 offiziell in Kraft getreten (vgl. EUR-Lex 2017). Sie ersetzt die aktuelle EU-Richtlinie für IVD (98/79/EG). Die nationalen Übergangsfristen enden etwa fünf Jahre nach der Veröffentlichung zum 26. Mai 2022 (vgl. Abb. 5.9). Die Hersteller von derzeit auf dem Markt zugelassenen IVD müssen die Einhaltung der IVDR für ihre Produkte innerhalb dieser Übergangsfrist sicherstellen (TÜV SÜD 2017).

Definition der «In-vitro-Diagnostika (IVD)». Laut der aktuellen IVDR bezeichnet ein IVD ein Medizinprodukt, das als Reagenz, Reagenzprodukt, Kalibrator, Kontrollmaterial, Kit, Instrument, Apparat, Gerät, Software oder System – einzeln oder in Verbindung miteinander – vom Hersteller zur In-vitro-Untersuchung von aus dem menschlichen Körper stammenden Proben, einschliesslich Blut- und Gewebespenden, bestimmt ist. Das Medizinprodukt dient primär dazu, Informationen zu einem oder mehreren der folgenden Punkte zu liefern: a) physiologische oder pathologische Prozesse oder Zustände; b) kongenitale körperliche oder geistige Beeinträchtigungen; c) Prädisposition für bestimmten gesundheitlichen Zustand oder bestimmte Krankheit; d) Feststellung der Unbedenklichkeit und Verträglichkeit bei potenziellen Empfängern; e) voraussichtliche Wirkung einer Behandlung oder Reaktionen darauf; und f) Festlegung oder Überwachung therapeutischer Massnahmen (Datenquelle: EUR-Lex 2017).

Wichtige Veränderungen im Rahmen der neuen IVDR. Zur Verbesserung von Gesundheit und Sicherheit, beziehungsweise zur Gewährleistung von Transparenz und Rückverfolgbarkeit in Bezug auf IVD, unterscheidet sich die IVDR in wichtigen Punkten von der vorherigen EU-Rechtlinie für IVD, so zum Beispiel in der Beaufsichtigung der sogenannten «Benannten Stellen», der Risikoklassifizierung, den Konformitätsbewertungsverfahren, den Leistungsbewertungen und -studien sowie der Vigilanz und Marktüberwachung (Datenquelle: EUR-Lex 2017):

  • Neue Klassifizierung von Produkten: Eine der wichtigsten Neuerungen der IVDR betrifft die Risikoklassifizierung der IVD-Produkte. Die Produkte werden unter Berücksichtigung ihrer Zweckbestimmung und der damit verbundenen Risiken in die Klassen A, B, C und D eingestuft, wobei die Klasse A den geringsten Risikograd, die Klasse D den höchsten Risikograd darstellt (vgl. hierzu EUR-Lex 2017; TÜV SÜD 2017).

  • Stärkung der Rolle der «Benannten Stellen»: Es wird geschätzt, dass mit der neuen Risikoklassifizierung etwa 80 bis 85 % der Produkte von In-vitro-Diagnostikunternehmen eine sogenannte «Benannte Stelle» für die Markteinführung benötigen (Dagher et al. 2019). Im Rahmen der bisherigen EU-Richtlinie für In-vitro-Diagnostika (98/79/EG) galt dies für weniger als 15 % der Produkte (TÜV SÜD 2017). Mit Ausnahme der IVD der Klasse A ist die Mitwirkung einer «Benannten Stelle» für die Konformitätsbewertung verpflichtend. Gleichzeitig gelten signifikant strengere Anforderungen für die Überwachung der «Benannten Stellen». Die «Benannten Stellen» müssen ein hohes Mass an Zuverlässigkeit sowie technischer und wissenschaftlicher Sachkenntnis in den betreffenden Bereichen nachweisen (Datenquelle: EUR-Lex 2017).

  • UDI-System («Unique Device Identification System») und EUDAMED (European Databank on Medical Devices): Ein System zur eindeutigen Produktkennung, das «UDI-System», soll die Rückverfolgbarkeit für alle in Verkehr gebrachten Produkte (mit Ausnahme von Produkten für Leistungsstudien) gewährleisten. Ein wichtiger Schritt bei der Verwirklichung der Ziele der IVDR ist die Einrichtung der europäischen Datenbank für Medizinprodukte, «EUDAMED». In EUDAMED werden alle auf dem Markt befindlichen Produkte eingetragen und Informationen von Produkten sowie die Konformitätsbewertung, Benannte Stellen, Bescheinigungen, Leistungsstudien, Vigilanz und Marktüberwachung gesammelt (Datenquelle: EUR-Lex 2017).

5.6.3.3 Auswirkungen der «In Vitro Diagnostics Regulation» (IVDR)

Gemäss der U.S. Food and Drug Administration (FDA) werden in der Labormedizin zwei Gruppen von Diagnostika eingesetzt: kommerziell verfügbare In-vitro-Diagnostika und eigenentwickelte Tests (Laboratory Developed Tests, LDTs), welche die FDA wie folgt definiert: «LDT ist ein IVD, der in einem einzigen Labor entwickelt, hergestellt und angewendet wird». Im europäischen Raum werden von Gesundheitseinrichtungen eigens hergestellte LDTs häufig als «Inhouse-Tests» bezeichnet. Laut der IVDR sollen Gesundheitseinrichtungen über die Möglichkeit verfügen, Produkte hausintern herzustellen, zu verändern und zu verwenden. Sie sollen in der Lage sein, auf die spezifischen Bedürfnisse von Patientenzielgruppen eingehen zu können, die auf dem indizierten Leistungsniveau nicht durch ein gleichartiges auf dem Markt verfügbares Produkt befriedigt werden können.

Gemäss der neuen IVDR gilt es hinsichtlich der Anforderungen zu unterscheiden, ob es sich um kommerzielle IVD oder LDT handelt (vgl. hierzu unter folgenden Datenquellen: Bundesärztekammer 2014; DAkkS 2016; DIN 2012). Die kommerziellen IVD müssen die EU-Verordnungen (IVDR) erfüllen, da diese zu den Medizinprodukten zählen. Die LDT müssen gemäss Artikel 5 der IVDR die folgenden regulatorischen Anforderungen erfüllen (Datenquelle: EUR-Lex 2017):

  1. a.

    Die Produkte werden nicht an eine andere rechtlich eigenständige Einrichtung abgegeben und nicht im industriellen Massstab hergestellt.

  2. b.

    Die Herstellung und die Verwendung der Produkte erfolgen im Rahmen geeigneter Qualitätsmanagementsysteme.

  3. c.

    Das Labor der Gesundheitseinrichtung entspricht der Norm ISO 15189 oder gegebenenfalls nationalen Vorschriften einschliesslich nationaler Akkreditierungsvorschriften.

  4. d.

    Die Gesundheitseinrichtung liefert in ihrer Dokumentation eine Begründung dafür, dass die spezifischen Erfordernisse der Patientenzielgruppe nicht beziehungsweise nicht auf dem angezeigten Leistungsniveau durch ein gleichartiges auf dem Markt befindliches Produkt befriedigt werden können.

  5. e.

    Die Gesundheitseinrichtung stellt der für sie zuständigen Behörde auf Ersuchen Informationen über die Verwendung der betreffenden Produkte zur Verfügung, die auch eine Begründung für deren Herstellung, Änderung und Verwendung beinhalten.

  6. f.

    Die Gesundheitseinrichtung verfasst eine Erklärung, die sie öffentlich zugänglich macht und die unter anderem enthält, dass die Produkte die grundlegenden Sicherheits- und Leistungsanforderungen erfüllen.

  7. g.

    Für Produkte, die in die Klasse D eingestuft werden, erstellt die Gesundheitseinrichtung Unterlagen, die ein Verständnis der Herstellungsstätte, des Herstellungsverfahrens, der Auslegung und der Leistungsdaten der Produkte einschliesslich ihrer Zweckbestimmung ermöglichen und die hinreichend detailliert sind, damit sich die zuständige Behörde vergewissern kann, dass die grundlegenden Sicherheits- und Leistungsanforderungen gemäss Verordnung erfüllt sind.

  8. h.

    Die Gesundheitseinrichtung begutachtet die Erfahrungen, die aus der klinischen Verwendung der Produkte gewonnen wurden, und ergreift alle erforderlichen Korrekturmassnahmen.

Technische Dokumentation und klinische Bewertungen: Die technische Dokumentation und die klinischen Bewertungen werden im Rahmen der neuen IVDR umfangreicher und detaillier gestaltet (vgl. TÜV SÜD 2017). Die Hersteller werden verpflichtet, die technische Dokumentation für ihre Produkte zu erstellen und diese Dokumentation auf dem neusten Stand zu halten. Diese technische Dokumentation ermöglicht die Konformitätsbewertung des Produktes auf Grundlage der Anforderungen der IVDR. Die klinische Bewertung wird in einem Bericht dokumentiert, der Informationen über die wissenschaftliche Validität, die Analyseleistung, die klinische Leistung und eine Zusammenfassung enthält (Datenquelle: EUR-Lex 2017).

Abb. 5.9
figure 9

Implementierung der neuen IVDR-Richtlinie in Europa. Grafik adaptiert nach European Commission: «Transition Timelines from the Directives to the Regulations: Medical Devices and in vitro Medical Devices» und Valla et al.: «Companion Diagnostics: State of the Art and New Regulations». In Biomarker Insights, 2021 (16): 1–14

5.6.4 Implikationen

Die stark steigenden regulatorischen Anforderungen an die Zulassung und die kontinuierliche Dokumentation von in vitro-Diagnostika sind eine grosse Herausforderung für die Laboratoriumsmedizin. Sie wird besonders augenfällig am Beispiel der Companion Diagnostics, die in Europa regelmässig der zweithöchsten Risikoklasse C (in den USA analog der Klasse III) zugeordnet werden. Die Umsetzung der neuen EU-Richtlinie ist ein komplexer und keineswegs abgeschlossener Prozess. Die European Medicines Agency (EMA) arbeitet noch am optimalen Zusammenspiel aller beteiligten Stakeholder und ihrer Koordination. Es ist in jedem Fall davon auszugehen, dass Biomarker in klinischen Studien validiert sein müssen – gegenwärtig fehlt oft noch der künftig erwartete Nachweis der direkten Relation zwischen Biomarker und klinischen Outcomes (Califf 2018). Gleichwohl wird die neue Risikoklassifikation dazu führen, dass 80 bis 90 % aller In vitro-Diagnostika eine Hochstufung mit der Notwendigkeit der Involvierung «Benannter Stellen» («Notified Bodies»), von speziellen Qualitätsmanagementsystemen und von dementsprechend revidierten Technischen Dokumentationen erfahren werden (Valla et al. 2021).

Die Komplexität der Thematik wird illustriert durch die Herausforderungen, mit denen sich die Food and Drug Administration (FDA) konfrontiert sah bei dem eigentlich naheliegenden Vorschlag, die vorgesehenen Kategorien der (unverzichtbaren) Companion Diagnostics und der (informativen, aber nicht zwingend einzusetzenden) Complementary Diagnostics durch eine dritte Gruppe von «Class Companion Diagnostics» zu ergänzen (die nicht über den Einsatz eines spezifischen Therapeutikums, sondern über den Nutzen einer ganzen therapeutischen Klasse von Wirkstoffen mit gleichem Wirkmechanismus informieren sollen; vgl. FDA 2020). Am Beispiel der EGFR-Mutations-Tests und der assoziierten Therapie des nichtkleinzelligen Bronchialkarzinoms (NSCLC) mit den in den USA zugelassenen Wirkstoffen Afatinib, Gefitinib, Erlotinib, Osimertinib oder Dacomitinib entwickelte die FDA «Nonbinding Recommendations» für deren Zulassung in Kombination mit der ganzen Wirkstoffgruppe, welche als Kriterien benennen (1) die Definition einer «Gruppe» von Medikamenten unter Berücksichtigung von Wirkmechanismus, genauer Indikation und geeigneter Patientenpopulationen, (2) mögliche Interaktionen, (3) ein Minimum an Wirkstoff-übergreifenden klinischen Daten, (4) analytische Validität im Zusammenspiel mit anderen relevanten Biomarkern, (5) Wirkstoffübergreifende klinische Validität der Cut-Off-Punkte. Nicht einfacher verhält es sich mit der Umsetzung der künftigen regulatorischen Anforderungen an Laboratory Developed Tests (LDTs) und deren Weiterentwicklungen, an NGS-basierte Multi-Gen-Plattform-Panels oder an Tests an Zellmaterial oder an zirkulierender DNA aus Flüssigbiopsien («Liquid Biopsies»; vgl. FDA 2020).

5.6.5 Praxis-orientierte Lösungsansätze

Die stürmische wissenschaftliche Entwicklung in Kombination mit neuen regulatorischen Vorgaben stellt die Laboratoriumsmedizin einschliesslich der Diagnostika-Hersteller nicht nur in der Schweiz vor grosse Herausforderungen. Es bedarf hinreichender Kompetenz und Kapazität, um an der Weiterentwicklung der regulatorischen Standards konstruktiv mitzuwirken (vgl. EFPIA/MTE 2020). Hier wird es unter anderem darum gehen müssen, bestehende Ziel- und Interessenskonflikte aufzulösen, zum Beispiel durch eine aktive Beteiligung an der sachgerechten Definition der sinnvollerweise erwartbaren klinischen Evidenz im Rahmen von Zulassungsverfahren, aber auch von HTA-Evaluationen.

Dazu kann auf einen pragmatischen Vorschlag rekurriert werden, der von Schweizer Stakeholdern im Zuge des Projekts «SwissHTA-Konsensus» im Jahr 2012 breit abgestützt wurde (Schlander et al. 2013). Mit dem Ziel, eine flexible, kontextangepasste Anwendung der Prinzipien der evidenzbasierten Medizin zu ermöglichen, differenzierte «SwissHTA» zwischen einem (abstrakten) bestmöglichen Evidenzniveau, dem in einem gegebenen Kontext realistischerweise erwartbaren Evidenzniveau, und dem besten im konkreten Bewertungsfall (nur) verfügbaren Evidenzniveau («best available evidence»):

  1. 1.

    Bestmögliches Evidenzniveau:

    Abstrakt bestmögliches Evidenzniveau, der Hierarchie nach den allgemein akzeptierten Standards der evidenzbasierten Medizin folgend (vgl. Kategorien I bis IV, siehe oben).

  2. 2.

    Bestmögliches im gegebenen Kontext erwartbares Evidenzniveau:

    Referenzniveau für die Bestimmung von Evidenzlücken und Forschungsbedarf (vgl. Abb. 5.10), zugleich

    Referenzniveau für die Festlegung von Downgrades aufgrund zu geringen Vertrauens in die Robustheit der beobachteten Effekte;

    Kontextbeispiele:

    1. a.

      prinzipielle Limitation: klinische Indikation, in der aus ethischen oder methodischen Gründen keine randomisierten Doppelblindstudien möglich sind; im Rahmen der Präzisionsmedizin kann das in günstigen Fällen auf Interventionen zutreffen, die eine so überragende Effektivität aufweisen, dass schon historische Vergleichsgruppen eindeutige Aussagen ermöglichen;

    2. b.

      tradierte Entwicklungsstandards, die nicht abrupt veränderbar sind: Art der evaluierten Technologien: Ermöglichung einer differenzierten Vorgehensweise für neue versus Bestandstechnologien, Arzneimittel, Mittel, Gegenstände, Analysen und Medizinprodukte;

    3. c.

      zeitabhängige Limitation: prinzipiell (un)mögliche Verfügbarkeit von Daten zu Langzeitendpunkten wie beispielsweise Mortalität in frühen Phasen eines Technologielebenszyklus.

  3. 3.

    Bestes verfügbares Evidenzniveau:

    Datengrundlage für die Durchführung von Health Technology Assessments, zugleich Bezugspunkt für die Bestimmung von Evidenzlücken und Forschungsbedarf (Abb. 5.10).

Abb. 5.10
figure 10

Orientierung am bestmöglichen Evidenzniveau. in einem gegebenen Kontext statt Orientierung an einem abstrakten Maximum oder nur an der verfügbaren Evidenz. Eigene Darstellung in enger Anlehnung an den Schweizer Multi-Stakeholder-Konsensus «SwissHTA». (Siehe Schlander et al. 2012)

5.6.6 Mögliche Konsequenzen

Wenn das abstrakt bestmögliche Evidenzniveau nicht aus prinzipiellen Gründen (vgl. Kontextbeispiel a., oben, für mögliche unvermeidbare Umstände) verfehlt wurde, sondern Kontextfaktoren wie zum Beispiel eine frühe Phase im Technologielebenszyklus oder die Art der Intervention (beispielsweise Besonderheiten der Indikation oder der Technologie) das Erreichen des bestmöglichen Evidenzniveaus noch nicht ermöglichten, dann kommen als Entscheidungsansatz unter unvermeidbarer Unsicherheit «Managed Entry»-Strategien infrage (zum Beispiel «Coverage with Evidence Development»- oder auch «Risk Sharing»-Modelle).

Wenn aber das bestmögliche im gegebenen Kontext erwartbare Evidenzniveau unterschritten wurde, so resultiert aus diesem Umstand notwendig eine Herabstufung (ein «Downgrading») im Ranking der Evidenzstärke.

Es liegt dann in der Verantwortung der für die Evaluation zuständigen Stellen (Zulassungsbehörden und HTA-Agenturen), das im Rahmen einer klinischen Nutzenbewertung in einem gegebenen Kontext als Benchmark erwartete Evidenzniveau zu operationalisieren. Eine proaktive Beteiligung der Stakeholder – einschliesslich Spitzenvertretern der Laboratoriumsmedizin – dürfte für die Entwicklung sachgerechter Lösungen unerlässlich sein; im Erfolgsfalle könnte auf diesem Weg ein Ansatz realisiert werden, der sowohl den Besonderheiten der Evaluation diagnostischer Tests wie auch den innovativen neuen F&E-Studienkonzepten der Präzisionsmedizin gerecht wird, ohne die begründeten Belange und bewährten Standards der evidenzbasierten Medizin zu vernachlässigen.

Das bedingt eine grundsätzliche Offenheit für innovative adaptive Studiendesigns. Die sich hieraus ergebenden Fragestellungen, einschliesslich des sachgerechten Umgangs mit den oft kleineren Fallzahlen im Zuge der Stratifizierung (manchmal als «Orphanisierung» apostrophiert) sind aktuell intensiv bearbeitete und teils kontrovers diskutierte Themen (vgl. hierzu bei Anonymus 2021; Mueller et al. 2019; Nabhan et al. 2018; Ferkol und Quinton 2015; Gottwald und Huster 2013). Als wenig sachdienlich, weil Anlass zu Skepsis bietend, haben sich manche Vorschläge erwiesen, patientenrelevante Outcomes durch Surrogat-parameter mit zweifelhaftem prädiktiven Wert zu ersetzen (vgl. Aitken et al. 2021; Chen et al. 2020; Pasalic et al. 2020). Das zeigt, dass sich die Durchsetzung neuer, effizienterer F&E-Strategien noch in einem sehr frühen Stadium befindet. Im Zuge ihrer Umsetzung werden offene Fragen beantwortet müssen (vgl. hierzu bei DuBois et al. 2021; Hey et al. 2020; Faulkner et al. 2020; Blackstone 2019; Kogan et al. 2018), die von methodischen, darunter biostatistischen Aspekten bis hin zu Werturteilen reichen, welche Balance zwischen Evidenzstärke und frühem Zugang zu vielversprechenden Therapien, zwischen Fehlern 1. und 2. Art (Alpha- und Beta-Risiken), oder auch welches Risiko unerkannt gebliebener seltener, aber schwerer unerwünschter Nebenwirkungen in einem bestimmten Kontext als akzeptabel gelten soll.

Ein Alpha-Fehler (oder Fehler 1. Art; auch «falsch-positiver» Entscheid) liegt immer dann vor, wenn eine neue Technologie aufgrund von Studienergebnissen akzeptiert wird, obwohl sie in Wirklichkeit ihre Ziele nicht erreicht. Im Fall einzelner klinischer Studien wird für den primären Endpunkt meist eine Alpha-Fehler-Wahrscheinlichkeit von weniger als fünf Prozent erwartet und dann als statistisch «signifikant» bezeichnet; Irrtumswahrscheinlichkeiten <1 % gelten als statistisch «sehr signifikant». Ein Beta-Fehler liegt demgegenüber dann vor, wenn eine neue Technologie aufgrund eines nicht signifikanten Prüfergebnisses zurückgewiesen wird, obwohl sie in Wirklichkeit ihre Ziele erreicht. Grössere Fallzahlen und grössere Effektstärken verringern das statistische Risiko 1. und 2. Art; eine alternative, effizientere Strategie bieten die beschriebenen präzisionsmedizinischen Ansätze, beispielsweise von prädiktiven Biomarkern abhängige Studiendesigns mit Stratifikation oder Enrichment von geeigneten Patientengruppen.

5.6.7 Bewertung der Wirtschaftlichkeit

Konventionelle gesundheitsökonomische Kosten/Nutzen-Analysen beruhen in ihrem Kern auf der Bestimmung von inkrementalen Kosteneffektivitäts-Relationen («Incremental Cost Effectiveness Ratios», ICERs). Als zentrales Effektivitäts-Kriterium gelten qualitätsadjustierte Lebensjahre («Quality-Adjusted Life Years», QALYs), welche – risikogewichtet und anhand individueller Präferenzen bewertet – Lebensqualität und Lebenserwartung in einem Mass integrieren und damit – so definierte – Gesundheitsgewinne indikationsübergreifend vergleichbar machen.

Diese «Logik der Kosteneffektivität» hat seit den frühen 1990er-Jahren – beginnend in Australien und Kanada – vorwiegend in angelsächsisch geprägten und nordeuropäischen Ländern Eingang gefunden in die systematische Evaluation medizinischer Massnahmen im Rahmen von Health Technology Assessments (HTAs), die zumindest anfangs ganz überwiegend neuen Medikamenten galten, denen in zunehmendem Umfang aber auch Labordiagnostika unterzogen werden. Vor einer unkritischen Übernahme dieser Methodik sind einige Besonderheiten zu berücksichtigen und hinsichtlich ihrer Konsequenzen abzuwägen.

5.6.7.1 Methodische Herausforderungen

Labordiagnostische Massnahmen schnitten zwar bisher in den ihnen geltenden, insgesamt aber noch seltenen formalen gesundheitsökonomischen Analysen in der Mehrzahl der Fälle gut oder sehr gut ab (vgl. dazu auch den Abschn. 4.1, «HTAs von Diagnostika»). Wenn man bereit ist, vom möglichen Nutzen des «Wissens um des Wissens willen», also dem Wert ausschliesslich prognostischer Information ohne direkte Konsequenzen für das klinische Management zu abstrahieren (vgl. Asch et al. 1990), dann gilt für die Diagnostik, dass sie ihren Nutzen erst im Zusammenspiel mit ihren Auswirkungen, zum Beispiel Folgeinterventionen wie gezielten Massnahmen der Sekundär- oder Tertiärprävention oder konkreten Therapieentscheiden (und deren Konsequenzen) entfaltet. Die Bestimmung des direkten Wertbeitrags der einzelnen Komponenten von komplexen medizinischen Strategien («Therapeutic Pathways») ist schwierig und manchmal fast unmöglich. Schon die frühen Erfahrungen mit dem Diagnostics Assessment Program von NICE in England bewiesen, dass eine Analyse der Kosteneffektivität mit der Notwendigkeit von Modellierungen unter Zusammenführung von Daten unterschiedlicher Quellen und Güte mit Annahmen und in der Folge mit grosser Unsicherheit verbunden sein kann (Datenquelle: Byron et al. 2014). Die Probleme potenzieren sich, wenn (Tests auf) Biomarker evaluiert werden sollen, die in Basket Trials bei heterogenen Populationen benutzt wurden (Nosrati und Nikfar 2021; Renfro und Sargent 2017). Ein Vorschlag, den damit verknüpften Herausforderungen mindestens teilweise zu begegnen, besteht in der Entwicklung und Adaptation generischer Kosteneffektivitätsmodelle (Snyder et al. 2018).

5.6.7.2 «Effizienz»

Effizienz ist per definitionem immer ein sekundäres oder instrumentelles Ziel. Das betrifft weniger Fragen der «technischen Effizienz» (die den optimalen Einsatz nur eines Produktionsfaktors betreffen) als solche der «produktiven Effizienz» (die zusätzlich die optimale Kombination mehrerer Faktoren betreffen) und vor allem der «allokativen Effizienz» (vgl. Schlander 2003, 2009; Reinhardt 1992, 1998). Die Prämisse der «Logik der Kosteneffektivität», es sei die (formal einzige) primäre Aufgabe der OKP, die «produzierte» Gesundheit unabhängig von der Verteilung des gewonnenen Gesundheitsnutzens zu maximieren, entspricht einem auf reine Gesundheitseffekte reduzierten quasi-utilitaristischen Kalkül und ist normativ problematisch und deskriptiv unzutreffend (vgl. Richardson und Schlander 2019; Dolan et al. 2005; Schlander 2005). Das Ziel der Effizienz befindet sich evident in einem Spannungsverhältnis mit den anerkannten sozialpolitischen Zielsetzungen des Schweizer Gesundheitssystems (vgl. zum Beispiel SAMW 2014, 2019; Marty 2016).

Die Bundesverfassung (BV) der Schweizerischen Eidgenossenschaft steht in der Rechtstradition Rechte- oder Prinzipien-basierter Ansätze, die von der Personalität, Integrität und Autonomie des Individuums ausgehen. Entsprechend wird das Schweizer Gesundheitsrecht in erheblichem Mass vom Solidaritätsgedanken geprägt. So haben sich Bund und Kantone gemäss Art. 41 Abs. 1 lit. b BV dafür einzusetzen, dass «jede Person die für ihre Gesundheit notwendige Pflege erhält» und dass jede Person gegen die wirtschaftlichen Folgen unter anderem von Alter, Invalidität, Krankheit und Unfall gesichert ist (Art. 41 Abs. 2 BV). Mit dem Krankenversicherungsgesetz von 1996 (KVG, dort in Artikel 32 Absatz 1 Satz 1) wird vorgegeben, dass die von der OKP zu finanzierenden Leistungen […] wirksam, zweckmässig und wirtschaftlich sein müssen. Die Grundlagen der OKP einschliesslich der sogenannten «WZW-Kriterien» implizieren einen verantwortungsvollen Umgang mit Ressourcen; sie sind jedoch nicht kongruent mit einer ausschliesslichen Orientierung an einem Effizienzziel, die in Widerspruch zum Solidaritätsprinzip geraten müsste (vgl. dazu Schweizerische Akademie der Medizinischen Wissenschaften, SAMW 2014, 2019; siehe darüber hinaus auch Daniels 1985).

5.6.7.3 Schwellenwerte für Kosteneffektivität

Ohne ein eindeutiges Benchmark für die maximale Zahlungsbereitschaft für definierte Gesundheitsgewinne fehlt der «Logik der Kosteneffektivität» der entscheidende Bewertungsmassstab. Die Existenz einheitlicher Schwellenwerte ist logisch jedoch direkt abhängig vom (empirisch falsifizierten, siehe oben) Konstrukt des Ziels einer einfachen Maximierung von Gesundheitsgewinnen, unabhängig davon, wem sie unter welchen Umständen zugutekommen. Diese Annahme begegnet zahlreichen Problemen, darunter exemplarisch

  1. 1.

    Schweregrad einer Gesundheitsstörung. Es ist sehr gut belegt, dass Bürger der medizinischen Versorgung einer schweren oder akut bedrohlichen Krankheit eine überproportional höhere Priorität einräumen würden als einer weniger schweren Gesundheitsstörung, selbst wenn diese Priorisierung mit Effizienzverlusten verbunden sein sollte (siehe zum Beispiel Nord und Johansen 2014; Shah 2009).

  2. 2.

    Seltenheit einer Gesundheitsstörung. Das zentrale Effizienzmass der «Logik der Kosteneffektivität», die inkrementale Kosteneffektivität-Relation («Incremental Cost Effectiveness Ratio», ICER) kann aufgrund ihrer Konstruktion einen möglichen Einfluss der Seltenheit (oder der Kostenfolgen bzw. des sog. «Budget Impact») einer Intervention nicht abbilden, weil sich die Grösse der Patientenpopulation sowohl im Zähler als auch im Nenner des «ICER»-Quotienten befindet und deshalb herauskürzt (Schlander et al. 2014). Es ist jedoch belegt, dass die Mehrzahl der Schweizer Bürger eine «soziale Präferenz» dafür zum Ausdruck bringen, Patienten mit seltenen und (auch) deshalb teuren Erkrankungen nicht aus ökonomischen Gründen zurückzulassen, selbst wenn (auch) diese Priorisierung mit Effizienzverlusten verbunden sein sollte (siehe Schlander et al. 2018; vgl. dazu auch Nord 1999; Nord et al. 1995).

  3. 3.

    Empirische Begründbarkeit eines Schwellenwerts. Auch innerhalb der ökonomischen Logik lässt sich ein Schwellenwert nicht empirisch begründen. Je nach angewendeter Methode zeigt sich der in ökonomischen Studien gefundene Wert des Schattenpreises beziehungsweise der Zahlungsbereitschaft für ein («statistisches») Lebensjahr extrem variabel, mit einer Bandbreite von 13.000 GBP/QALY in einer angebotsorientierten englischen Analyse (Claxton et al. 2015) bis mehreren Hunderttausend Euro in den meisten europäischen Studien und einem Extremwert von mehr als zwei Millionen Euro in einer ebenfalls britischen Revealed Preferences-Studie (Sandy und Elliott 1995) – bei einem Median in den europäischen Studien um 160.000 € oder dem Fünffachen des Bruttoinlandsprodukt pro Kopf (Schlander et al. 2017; in nordamerikanischen Studien sogar über 270.000 EUR oder das Siebenfache des Bruttoinlandsprodukts pro Kopf; vgl. Schlander et al. 2018). Für die de facto von internationalen HTA-Agenturen angewendeten Schwellenwerte für die maximal akzeptierten Kosten je gewonnenem (meist «qualitätsadjustierten») Lebensjahr, die sich in einem Bereich von 20.000–30.000 GBP (in England; vgl. NICE 2013) bis zum Dreifachen des BIP/Kopf (Empfehlung der WHO; Marseille et al. 2015) bewegen, gibt es mithin trotz jahrzehntelanger Forschung keine belastbare wissenschaftliche Basis (vgl. Schlander et al. 2017, 2018).

5.6.7.4 Statische Analyse

Herkömmliche Kosten/Nutzen-Analysen (und ebenso Kosteneffektivitäts-Analysen als ihre in der angewandten Gesundheitsökonomie dominante Variante) ermitteln die Bedingungen für eine «statische Effizienz», also die optimale Allokation eines in Grösse und Zusammensetzung als konstant angenommenen Ressourcenpools, während sich in der Realität nicht nur relative Preise, sondern auch verfügbare Technologien in ständigen Anpassungs- und Veränderungsprozessen befinden. Daraus folgt, dass sich die erfasste «Effizienz» von Technologien regelmässig im Zeitverlauf ändert, mithin es sich bei ermittelten Kosten/Nutzen-Relationen immer nur um eine Momentaufnahme handelt (Drummond et al. 2015; Schlander 2003).

Typische Änderungen im Zeitverlauf ergeben sich während des Lebenszyklus von Technologien, deren Akquisitionskosten fast immer stark sinken, einerseits aufgrund von Skalen- und Verbundeffekten («economies of scale» und «economies of scope») und Erfahrungskurveneffekten («learning curve effects»), andererseits aus Gründen des sich im Zeitverlauf durch den Markteintritt neuer Wettbewerber intensivierenden kompetitiven Umfelds (Taylor und Taylor 2021; vgl. dazu auch Meffert et al. 2012; Olbrich und Battenfeld 2007; Schäppi et al. 2005).

5.6.7.5 «Dynamische Effizienz»

«Dynamische Effizienz» muss von Veränderungen der statischen Effizienz im Zeitverlauf unterschieden werden; sie erfasst demgegenüber den Aufwand bzw. die Leichtigkeit von Veränderungen, also die Flexibilität, Anpassungen vorzunehmen; sie ist umso besser, je geringer Umstellungskosten ausfallen. Sie ist daher ein Mass für die Innovations- und Anpassungsfähigkeit eines Systems. Statische und dynamische Effizienz können nicht gleichzeitig optimiert werden; als Folge von Eingriffen mit dem Ziel der Steigerung «statischer Effizienz» können im Gegenteil Innovationsbehinderungen entstehen. Deshalb gilt es grundsätzlich, unnötige Überregulierung und Bürokratisierung zu vermeiden. Die Organisationstheorie kennt in Analogie hierzu die Unterscheidung zwischen Effizienz 1. Ordnung und (Innovations- und Anpassungs-) Effizienz 2. Ordnung (vgl. Sarta et al. 2021; Daft 2007).

Unsicherheit und Risiko liegen in der Natur von Innovationsprozessen. Aus diesem Grund ist es prinzipiell nicht möglich, zum gegenwärtigen Zeitpunkt die dynamische Effizienz der labordiagnostisch angetriebenen Entwicklung hin zu einer «Präzisionsmedizin» ex ante zu beziffern. Starke Anhaltspunkte für eine attraktive Rendite (Cutler 2020; Kasztura et al. 2019) sollten ermutigen, den Weg mit Optimismus zu beschreiten, mit regulatorischen Innovationen wie geeigneten Value Frameworks und transparenten Erwartungen an die Evidenz für Wirksamkeit, Zweckmässigkeit und Wirtschaftlichkeit («WZW») zu begleiten und eine proaktive Rolle anzustreben, um an den Fortschritten bestmöglich zu partizipieren (vgl. Faulkner et al. 2020; Hey et al. 2020; Garrison und Towse 2019; Ginsburg und Phillips 2018; Love-Koh et al. 2018; Marshall et al. 2017).

Die Entwicklung der Kosten für die Genomsequenzierung (vgl. Bonetta 2010; Schwarze et al. 2018, 2020; Gordon et al. 2020; Brazil 2021), aber auch für komplexe therapeutische Prozesse wie immunologische CAR-T-Zelltherapien (vgl. Ran et al. 2020; Schlander et al. 2020) stützen die Erwartung, dass im Zuge von Standardisierung, Skalen- und Verbundeffekten und zunehmender Anwendungserfahrung die Kosten sinken und damit auch die die statische Effizienz mit Fortschreiten der Technologielebenszyklen zunehmen wird. Schon jetzt zeichnen die Ergebnisse vorliegender Kosteneffektivitätsanalysen, wenn auch noch vorläufig und lückenhaft, ein insgesamt optimistisch stimmendes positives Bild (Cutler 2020; Kasztura et al. 2019).

5.6.7.6 Zwischenfazit

Allen Limitationen der Datenlage zum Trotz stützen die vorliegenden Informationen die Erwartung, dass die von labormedizinischen und diagnostischen Innovationen geprägte und weiterhin von ihnen abhängige Entwicklung hin zu einer «Präzisionsmedizin» nicht «nur» aus einer klinischen, patientenbezogenen Perspektive, sondern auch aus gesellschaftlicher und ökonomischer Sicht ausserordentlich vielversprechend ist und deshalb ein förderndes regulatorisches Umfeld verdient.

5.7 Herausforderungen und Erwartungen an die Laboratoriumsmedizin in der Schweiz

Mit dieser Prämisse lassen sich Erwartungen an die Schweizer Laboratoriumsmedizin formulieren hinsichtlich ihrer aktiven Rolle in Forschung & Entwicklung (F&E) und der Generierung von Innovationen, ihrer massgeblichen Beteiligung an der Translation wissenschaftlicher Fortschritte in eine auch zukünftig qualitativ hervorragende medizinische Versorgung der Schweizer Bevölkerung, einschliesslich ihrer Krisenfestigkeit («Crisis and Pandemic Preparedness»), ihrer Übernahme einer führenden Funktion bei der Implementierung effizienter Strukturen und Prozesse im Rahmen der digitalen Transformation des Schweizer Gesundheitswesens und einer engen konstruktiven Kooperation mit Ärzten und medizinischem Personal im Kontext der Prä- und Postanalytik. Im Einzelnen:

5.7.1 Krisenfestigkeit des Gesundheitssystems («Crisis and Pandemic Preparedness»)

Die COVID-19-Pandemie hat überdeutlich sichtbar gemacht, welch kritische Rolle der Labormedizin für die Funktionsfähigkeit des Gesundheitssystems zukommt. Ohne Labordiagnostik wären weder epidemiologische Surveillance noch Bekämpfung der Verbreitung, ebenso wenig wie individuelle Diagnose und Überwachung der Therapie einer Infektion denkbar. Im Sinne der notwendigen Anpassungseffizienz («2. Ordnung») stellt die Fähigkeit zu schneller Reaktion auf krisenhafte Herausforderungen das komplementäre Gegenstück zu proaktiver Beteiligung an Projekten der internationalen Spitzenforschung und damit Teilhabe am aktuellen Wissens- und Technologiestand dar.

Zum Zeitpunkt des Abschlusses der Arbeit am vorliegenden Text im ersten Quartal 2022 war die von dem erstmals in Wuhan Ende 2019 bei Menschen nachgewiesenen Corona-Virus SARS-CoV-2 ausgelöste Pandemie nicht überwunden; es hat sich eingebürgert, von «Wellen» zu sprechen, und es bestanden Hinweise auf das Bevorstehen einer weiteren «Welle» verursacht durch eine zu diesem Zeitpunkt neu aufgetretene, «Omikron» genannte Variante des Virus.

Parallel zur dramatischen Entwicklung des Pandemiegeschehens seit Februar 2020 ist die wissenschaftliche Literatur zum Thema Corona-Virus 2019 und COVID-19-Erkrankungen geradezu explodiert. Es erschien daher als ein nahezu aussichtsloses Unterfangen, im Rahmen der vorliegenden, thematisch anders fokussierten und breit angelegten Arbeit den aktuellen Stand des Pandemiegeschehens mit Gewinn für die Leser zu verarbeiten.

Stattdessen sollen zwei Aspekte eher grundsätzlicher Art beleuchtet werden, nämlich zum einen einige schon jetzt offenkundige Lehren für eine künftig bessere Vorbereitung auf krisenhafte Herausforderungen des Gesundheitssystems (im Sinne einer «Crisis and Pandemic Preparedness»), zum anderen (in einem separaten Abschn. 4.7) die Vor- und Nachteile der unterschiedlichen verfügbaren Testmethoden, ihr sinnvoller Einsatz und ihre Interpretation.

Zu den kritischen Aufgaben in der Situation einer Pandemie, die nicht ohne eine leistungsfähige Laboratoriumsmedizin erfüllt werden können, gehören in Anlehnung an eine Gemeinsame Erklärung von 20 international führenden Wissenschaftsakademien von Juli 2021 (S20 Academies Joint Statement 2021) insbesondere

  • die Schaffung der wissenschaftlichen und logistischen Basis für die Bildung von internationalen, nationalen und regionalen Netzwerken für eine Überwachung (Surveillance) von Krankheitsausbrüchen, die auf gemeinsam vereinbarten Kriterien basiert, um ein gehäuftes Auftreten von Krankheits- und Todesfällen frühzeitig erkennen und schnell auf mögliche Pandemieausbrüche reagieren können und um im Pandemiefall über skalierbare Infrastrukturen zu verfügen;

  • verlässliche Plattformen für die Sammlung und den weltweiten Austausch detaillierter Daten, unter anderem zur Erregergenomik;

  • eine verstärkte epidemiologische Überwachung von übertragbaren Krankheiten und von bakteriellen and viralen Infektionen im Kontext weltweit zunehmender Resistenzentwicklungen;

  • die Schaffung und Bereithaltung von Technologie- und Fertigungskapazitäten für eine dezentrale Herstellung und Auslieferung von Diagnostika (und Medikamenten, Impfstoffen, Ausrüstungen und Materialien des medizinischen Bedarfs, einschliesslich ihrer hinreichenden Bevorratung);

  • zeitlich gestraffte Zulassungs- und Evaluationsprozesse, um den Zugang zu neuen Technologien nicht unnötig zu behindern;

  • enge internationale Kooperation in der Verfolgung von Public Health-Zielen.

Der bisherige Verlauf der COVID-19-Pandemie und ihr Management deckte nahezu flächendeckend, wenn auch in international, national und regional bzw. kantonal unterschiedlichen Ausprägungen, ein bis dahin unerwartetes Mass staatlicher und bürokratischer Dysfunktionalität auf (vgl. dazu schon früh Horton 2020).

Die bisher in der Pandemie-Bekämpfung erzielten Erfolge wären nicht denkbar gewesen ohne bürgerschaftliches Verantwortungsbewusstsein – nicht zuletzt der im Gesundheitswesen Beschäftigten – und nicht ohne die vor allem (wenn auch nicht ausschliesslich) im privaten Sektor beheimatete Innovationskraft und Initiative, besonders sichtbar bei der schnellen Entwicklung und Bereitstellung von Diagnostika, Impfstoffen und absehbar von wirksamen Medikamenten.

Es liegt nahe, auch aus diesen Beobachtungen angemessene Schlussfolgerungen für die Weiterentwicklung der regulatorischen Rahmenbedingungen im Gesundheitswesen im Allgemeinen und in der Labormedizin im Besonderen zu ziehen.

5.7.2 Translation in die medizinische Alltagsversorgung

Die Herausforderungen hinsichtlich Innovationsfähigkeit, Anpassungsfähigkeit und Flexibilität, Einbindung in internationale Netzwerke, Qualitätssicherung und den Transfer wissenschaftlicher Erkenntnisse in die klinische Praxis mit dem Ziel einer wirksamen, zweckmässigen und wirtschaftlichen medizinischen Alltagsversorgung aller Schweizer sind gross. Sie betreffen keinesfalls nur die Spitzenzentren und -vertreter der Laboratoriumsmedizin, sondern darüber hinaus das Fach in seiner gesamten Breite. Die Aufgabe der «Translation» neuer Technologien, also ihren Transfer und ihre Nutzbarmachung in der Alltagsversorgung, kann nur in Kooperation bewältigt werden (vgl. Abb. 5.5).

Wachsende Teile der Labormedizin haben sich von kleinen Instituten, die mit grossen Probenvolumina arbeiten, hin zu hochtechnologisch geprägten wissenschaftlichen Einrichtungen gewandelt, in denen mit Mikro- oder sogar nur Nanoliter umfassenden Materialmengen und komplexen molekulargenetischen oder flowzytometrischen Verfahren routinemässig hochsensitive Analysen durchgeführt werden. (Umgekehrt kann eine hohe Sensitivität auch dadurch erzielt werden, dass grosse Probenmengen eingesetzt werden und die Zielmoleküle aufkonzentriert werden.) Beispiele sind neben noch vor wenigen Jahre für unmöglich gehaltene nachweisbare Messungen von Troponin mittels hochsensitiver Assays sogar bei Gesunden (vgl. die Abschn. 4.4.3 und Abschn. 5.5.1.3, «Zukunftspotenziale»), die Bestimmung zirkulierender Tumorzellen (CTCs) oder Tumor-DNA (ctDNA) zum Monitoring des Therapieansprechens oder Nachweis einer «complete deep response» durch Ausschluss von minimalen Tumorresiduen bei hämatologischen Malignomen oder soliden Tumoren (vgl. Soh und Wallace 2019; Taga et al. 2016; Tarazona et al. 2019; u. a. m.; vgl. Amstutz et al. 2017; Amstutz 2018 und den Abschn. 5.3 und 5.4, «Zukunftspotenziale»).

Dabei ist die Einführung von Liquid Biopsies (vgl. Abschn. 5.4.2) als standardisierte Technik alles andere als trivial. So erfordern die sehr kleinen Probenmengen, in denen zirkulierende Tumor-DNA nur einen kleinen Bruchteil ausmacht, den Einsatz von Hochdurchsatzscreening als bestgeeignete Methode, molekulare Veränderungen in Tumoren breit zu detektieren, und stellen spezielle Ansprüche an Probenaufbereitung, bioinformatische Datenanalyse und PCR-basierte Amplifikation. Die kleinen Mengen an Tumor-DNA müssen mittels geeigneter Markierungsverfahren (durch Einsatz sogenannter molekularer Identifikatoren, MIDs) zuverlässig von PCR-Artefakten und Sequenzierfehlern differenziert werden, damit die analytische Genauigkeit der Methode sichergestellt ist. Die Sensitivität kann durch Algorithmen verbessert werden, die typische Sequenzierartefakte aus den Daten herausfiltern und damit das «Grundrauschen» vermindern (Newman et al. 2016).

Ähnliche Herausforderungen für die Analytik bietet die Isolierung zirkulierender Tumorzellen (CTCs). Nach Trennung der grösseren Tumorzellen und Leukozyten von den kleineren Erythrozyten müssen erstere voneinander separiert werden, wofür semiautomatische Systeme zur Verfügung stehen, die epitheliale Zelladhäsionsmoleküle erkennen oder – wie CTC-Chips – auf Mikrofluid-Techniken zur Anreicherung von CTC-Zellen beruhen (Heitzer et al. 2013).

Vor diesem Hintergrund wurde im Dezember 2017 auf Initiative von James H. Godsey und Angela Silvestro von den Firmen Illumina (San Diego, CA) und Novartis (Basel, Schweiz, und Cambridge, MA) eine Analytical Variables Working Group im Rahmen des «Blood Profiling Atlas Consortium» («BloodPAC») ins Leben gerufen (Godsey et al. 2020). Das erklärte Ziel von «BloodPAC» ist die Beschleunigung der Entwicklung und Validierung von Liquid Biopsy-Assays, um diese in die medizinische Routineversorgung zu bringen. An der amerikanischen Arbeitsgruppe waren auch Vertreter akademischer Zentren und der Food and Drug Administration beteiligt; sie beschrieben elf «generische» Validierungsprotokolle und vier Standardmethoden als Orientierung für eine standardisierte und qualitätsgesicherte Entwicklung von Assays – ausdrücklich auch dezentral durch einzelne Laboratorien («In-House» oder «Laboratory-Developed Tests»).

Es liegt nahe, dass der qualitätsgesicherte Roll-Out oder die «Translation» der Methoden von Forschungslaboratorien in die labormedizinischen Institute der klinischen Versorgung erheblicher Anstrengungen bedarf. Das beginnt bereits mit der der eigentlichen Analytik vorausgehenden «präanalytischen» Phase (vgl. dazu nachstehend den allgemeineren Abschn. 5.7.3). Daniel Andersson und Kollegen (2021) vom Sahlgrenska Center for Cancer Research in Göteborg (Schweden) identifizierten alleine 45 Studien, die unterschiedliche präanalytische Methoden verglichen, was nach Ansicht der Autoren sowohl die technischen Herausforderungen als auch die Notwendigkeit eines optimierten und standardisierten ganzheitlichen Workflow von der Probengewinnung bis zur klinischen Interpretation unterstreicht. Mit der Intention, die präanalytische Phase der ctDNA-Gewinnung spezifisch bei Lymphompatienten zu optimieren, diskutieren Estelle Bourbon et al. (2021) neun für den Analyseerfolg bedeutsame Kriterien. Generell wird der bestgeeignete Ansatz von der jeweiligen Fragestellung beeinflusst sein (Screening, Diagnose, Staging, Monitoring; vgl. Godsey et al. 2020; Andersson et al. 2021).

Das erste Translationshindernis auf dem Weg vom (Forschungs-) Labor zum Patienten muss überwunden werden, wenn der Schritt von den biologischen und technischen Grundlagen mit der Identifikation aussichtsreicher Biomarker in die klinische Prüfung und Validierung gemacht werden muss.

Angesichts der steigenden regulatorischen Anforderungen wird hier den Diagnostika-Unternehmen eine immer grössere Bedeutung zukommen, woraus sich Parallelen zur Situation der pharmazeutischen F&E ergeben dürften (vgl. Poste et al. 2012; auch: Van den Bruel et al. 2007; Horvath et al. 2014; Monaghan et al. 2016; u. a. m.), die geprägt werden durch steigenden Investitionsbedarf, tendenziell grössere Risiken und daraus resultierend die Notwendigkeit eines professionellen F&E-Managements, das strategische Entscheide über den vielversprechendsten Einsatz und die Marktpositionierung neuer Biomarker einschliesst – im Fall von Companion Diagnostics gibt es schon jetzt kaum noch eine erfolgversprechende Alternative zu vernetzten Entwicklungsprogrammen von Diagnostikum und Therapeutikum und zu frühzeitiger Interaktion mit den Zulassungsbehörden (vgl. Abb. 5.5).

Die klinische Entwicklung, für die klassisch vier Phasen definiert werden (für neuere Ansätze, vgl. den Abschn. 5.2),

  • Phase I, erstmalige Untersuchung am Menschen, in der Regel an wenigen freiwilligen (meist) gesunden Probanden mit dem primären Ziel der Prüfung von Verträglichkeit und Anwendungssicherheit;

  • Phase II, erstmalige Untersuchung an Patienten mit der Zielkrankheit mit dem primären Ziel der Dosisfindung und dem ersten Nachweis «klinischer» Wirksamkeit bei Menschen («clinical proof of concept»);

  • Phase III, grosse kontrollierte Studien zum statistisch abgesicherten Nachweis von Wirksamkeit und Verträglichkeit;

  • Phase IV, alle Studien, die nach Erteilung einer Marktzulassung für die entsprechende Indikation stattfinden,

impliziert spätestens ab Phase IIb (nach dem «clinical proof of concept») oder allenfalls Phase III bereits den Einbezug von klinischen Laboratorien und deren Involvierung in weitere technische Entwicklungsschritte, welche zugleich die Entwicklung des künftigen Qualitätsmanagement und die Vorbereitung der «Technischen Dokumentation» (vgl. den Abschn. 5.6.3) einschliessen. Im Erfolgsfall muss dann mit dem Transfer in die medizinische Versorgung die zweite klassische Translationshürde (vgl. Woolf 2008) überwunden werden, was je nach Indikationsgebiet des neuen Diagnostikums den Einbezug von Versorgungslaboratorien und weiteren Anwendern bedingt.

Die Rolle der Klinischen und Versorgungslabors gewinnt an Bedeutung in den darauffolgenden Schritten des Upscaling, der standardisierten Anwendung und der Qualitätssicherung, aber auch im Zusammenhang mit der Dissemination neuer Erkenntnisse an die Anwender und der Sicherstellung der Einhaltung der prä- und postanalytischen Voraussetzungen für die Qualität der Durchführung und die Validität der klinischen Interpretation der Tests.

5.7.3 [Neue] Ärztliche Aufgaben in der Labormedizin

Mit der zunehmenden Komplexität labormedizinischer Verfahren werden – unbeschadet der fortschreitenden Automatisierung und Digitalisierung (siehe unten) – die ärztlichen Aufgaben in der Laboratoriumsmedizin absehbar an Gewicht gewinnen. Das betrifft alle drei Phasen gleichermassen, Präanalytik, Analytik und Postanalytik (vgl. Orth et al. 2019).

5.7.3.1 Präanalytik

Nachlässigkeiten in der präanalytischen Phase gelten als Ursache von bis zu drei Vierteln aller fehlerhaften Befunde (zum Beispiel Bonini et al. 2002). Vor diesem Hintergrund gilt muss der Präanalytik, die alle Arbeitsschritte von der Patientenvorbereitung über die Probenentnahme bis hin zur Gewinnung des Analysats im Labor umfasst, grosse Aufmerksamkeit gelten. Neben technischen Aspekten schliesst die Präanalytik auch die Indikationsstellung ein, zu welcher die Feststellung der Notwendigkeit einer Untersuchung gehört. Gerade bei komplexen Biomarker-Analysen kann diese genuin ärztliche Aufgabe kaum hoch genug eingeschätzt werden. Weitere Aufgaben sind die Beratung und Unterstützung bei Probenwahl und -gewinnung, einschliesslich der zugehörigen Materialien und Prozesse, sowie der Transport und gegebenenfalls die Aufbewahrung der Probe (Gressner und Arndt 2019).

5.7.3.2 Analytik

Die ärztlichen Aufgaben im Rahmen des eigentlichen Analyseprozesses werden ebenfalls immer anspruchsvoller. Neben der Verantwortung für die Einhaltung aller Vorschriften und Standards gehören dazu insbesondere die interne Qualitätssicherung, Festsetzung, fortlaufende Aktualisierung und Implementierung von Validierungsregeln (vgl. Orth et al. 2019).

5.7.3.3 Postanalytik

Nach Vorliegen eines labormedizinischen Messergebnisses muss dieses interpretiert werden. Erst nach technischer Überprüfung, analytischer Qualitätssicherung, Plausibilitätskontrolle kann eine pathophysiologische Einordnung und eine differenzialdiagnostische Bewertung des Befundes erfolgen. Das ist in der Regel nur mit weiteren Informationen zum Patienten, seiner Anamnese, Diagnosen und Therapie möglich und bedarf daher der Interaktion mit den behandelnden Kollegen anderer Fachdisziplinen. Diese medizinische Bewertung ist eine genuin ärztliche Tätigkeit (Gressner und Arndt 2019; Orth et al. 2019).

5.7.3.4 Weitergehende Ausdifferenzierung?

Robert Hawkins (2012) geht noch einen Schritt weiter und differenziert fünf Phasen, denen er unter Rekurs auf Plebani (2010) unterschiedlich grosse Anteile an den Fehlerquellen im Testprozess zuordnet:

  1. 1.

    Prä-prä-analytische Phase (46–68 %)

    Indikationsstellung und Testanforderung; Testsequenz; Probengewinnung; Probenzuordnung und Patientenidentifikation; Probenhandhabung, -volumen, -lagerung und -transport;

  2. 2.

    Prä-analytische Phase (3–5 %)

    Probenvorbereitung; Logistik; …; Zentrifugation; …;

  3. 3.

    Analytische Phase (7–13 %)

    Apparativ-technisches Versagen; Probenhandhabung und -verwechslungen, defizitäre Qualitätssicherung, …;

  4. 4.

    Post-analytische Phase (13–20 %)

    Fehlerhafte Validierung; Reporting-Irrtümer; exzessive Turn-Around-Zeiten, verzögerte Mitteilung kritischer Befunde; …;

  5. 5.

    Post-post-analytische Phase (25–46 %)

    Verzögerte Reaktion auf eingehende Labordaten; fehlerhafte Interpretation; inadäquates Follow-Up; Unterlassen angezeigter Konsultationen; usw.

Die Definition der fünf Phasen überzeugt angesichts der vorgenommenen – oben auszugsweise zitierten – Abgrenzungen nicht völlig, weshalb auch der (scheinbaren) Exaktheit der prozentualen Angaben nach Auffassung der Autoren mit einem gewissen Mass an gesundem Misstrauen begegnet werden sollte.

5.7.3.5 Erweitertes Aufgabenspektrum

Nichtsdestotrotz illustriert die Kompilation von Plebani (2010) in Übereinstimmung mit einer umfangreichen Literatur zur notwendigen Fehlervermeidung und Qualitätssicherung, wie entscheidend die Integration labormedizinischer Expertise in die prä- und die postanalytische Phase von Labortests ist, soll deren Nutzenpotenzial ausgeschöpft und andererseits Schaden durch Über- und Fehldiagnostik vermieden werden. Hier bieten sich wichtige Ansatzpunkte für Qualitätssicherungsprogramme und Benchmarking, welche explizit die «extraanalytischen» Schritte im Testablauf in den Fokus nehmen (Hawkins 2012; Neogi et al. 2016; Sciacovelli et al. 2017; Plebani 2018; Heher et al. 2018).

Um dieses Ziel fest in der schweizerischen Medizinkultur zu verankern und eine zweckmässige Nutzung der labordiagnostischen Möglichkeiten zu fördern, erscheint eine hinreichend starke Stellung der Fachdisziplin an den sieben Medizinischen Fakultäten und ihre angemessene Repräsentanz in den Curricula der ärztlichen Aus-, Weiter- und Fortbildung unverzichtbar (vgl. hierzu auch Colby et al. 2020).

Mit der zunehmenden Komplexität der labordiagnostischen Verfahren hat sich die feste Einbindung der Laboratoriumsmedizin in prä- und postanalytische klinische Entscheidungsprozesse bewährt. In der Krebsmedizin etwa gehören interdisziplinäre Tumorboards zu den etablierten Qualitätsstandards und sind Bestandteil der Zertifizierung spezialisierter Zentren. Aus Deutschland liegen erste Ergebnisse vor, die nahelegen, dass zertifizierte Tumorzentren trotz höheren Aufwands nicht nur bessere Outcomes für die Patienten generieren (Trautmann et al. 2018), sondern sogar wirtschaftlicher – mit geringeren Kosten pro Fall – arbeiten können als nichtzertifizierte Kliniken (Cheng et al. 2021).

5.7.4 Digitale Transformation

Im Rahmen der voranschreitenden Digitalisierung der Gesundheits-versorgung kommt der Labormedizin eine besondere Rolle zu (IKB 2019). Das «Labor 4.0» revolutioniert die Laborwelt von der Probenlogistik bis zum Datenmanagement und ermöglicht neue Ansätze für «personalisierte» Prozesse (analytica 2019). Es ermöglicht Robotiksysteme und Automation, vollständige Digitalisierung, eine flexible modulare Arbeitsumgebung, intelligente Materialien sowie funktionale Oberflächen (Datenquelle: Labvolution 2019).

Ziel von «Labor 4.0» ist es, durch eine kontinuierliche Verfügbarkeit der Daten flexible Zusatzfunktionen bis hin zu überwachten Prüfprozessen zu gewährleisten (analytica 2019). Die Labormedizin hat sich in den zurückliegenden Jahrzehnten sehr rasch fortentwickelt und sich auch strukturell arbeitsteilig aufgestellt, so als diagnostisches Routinelabor, Forschungs- und Entwicklungslabor oder Produktionslabor.

Im Routinelabor können Proben durch Digitalisierung und Automatisierung exakt und jederzeit nachvollziehbar verarbeitet werden. Im Forschungslabor schaffen Digitalisierung und Standardisierung der Prozesse die Grundlage für die interdisziplinäre Zusammenarbeit zwischen Forschungsgruppen und Forschungseinrichtungen. Im Produktionslabor spielen Effizienz, Prozessoptimierung, Sicherheit und Flexibilität eine grosse Rolle und die Prozessautomation ermöglicht die rasche Anpassung an Marktanforderungen (Datenquelle: Labvolution 2019). Im «Labor 4.0» interagieren Menschen und Maschinen über verschiedenste Kommunikationswege miteinander, so zum Beispiel mit Unterstützung von Virtual Reality (Kals 2018).

Die Digitalisierung im Gesundheitswesen wird sich deutlich stärker auf die Labormedizin als auf andere Dienstleistungsbereiche auswirken. So sind digitale Lösungen in der Lage, die Vielzahl der Laboruntersuchungen im Sinne einer «digitalen Integration» bereits in der Indikationsphase, bei der Auswahl von Laboruntersuchungen, bei Empfehlungen zu Diagnosewegen und Nachweisen für Diagnosen zusammenzuführen (Datenquelle: ALM 2018). Daten aus Smartphone-Applikationen können Untersucher unterstützen, schneller die richtige Diagnose zu stellen (vgl. hierzu u. a. bei Roche 2019). Die neue IVDR selbst geht auf mobile Plattformen ein, bei denen auch Bildschirmgrössen und die Benutzungsumgebung festzulegen sind (Datenquelle: EUR-Lex 2017).

5.8 Wirtschaftliche Bedeutung

Die Laboratoriumsmedizin in der Schweiz stellt einen hochspezialisierten, technologisch anspruchsvollen Sektor der Schweizer Volkswirtschaft dar. Für die Marktteilnehmer Privatlabore, Spitallabore sowie Hersteller und Händler (also ohne Praxislabore und pathologische Laboratorien) legten die schweizerischen Fachverbände Foederatio Analyticorum Medicinalium Helveticorum (FAMH), Schweizerische Union für Labormedizin (SULM) und Schweizerischer Verband der Diagnostikindustrie (SVDI) im Jahr 2020 eine Branchenstudie vor; der zufolge der so abgegrenzte Sektor 319 Einrichtungen umfasst, die sich auf 65 Hersteller und Händler, 153 Privatlabore (66 Unternehmen) und 101 Spitallabore aufteilen (Reuschling et al. 2020).

Die In-vitro-Diagnostik-Branche in der Schweiz erzielte dieser Erhebung zufolge im Jahr 2018 eine Wertschöpfung (definiert als Umsatz minus Vorleistungen und Abschreibungen) von zwei Milliarden CHF und beschäftigte 14.300 Mitarbeiter (Vollzeitäquivalente), mithin 140.000 CHF pro Mitarbeiter. Die Mehrzahl der Privatlabore, in geringerem Umfang auch die Hersteller und Spitallabore, gaben in dieser Studie an, Investitionen in nicht näher spezifiziertem Umfang in den nächsten beiden Jahren zu planen. Als grösste Herausforderungen gaben die befragten Unternehmen Kostendruck, zunehmende Regulierung und Schwierigkeiten bei der Rekrutierung von qualifiziertem Personal an.

5.9 Fazit: Zukünftige Rolle der Laboratoriumsmedizin

Die Fortschritte der labormedizinischen Diagnostik haben nicht nur in den vergangenen Jahrzehnten einen beträchtlichen Zusatznutzen für Patienten und Gesellschaft generiert, auch und gerade im Verhältnis zu den vergleichsweise moderaten Ausgaben der OKP für die Laboratoriumsmedizin. Mehr noch versprechen die neuen technologischen Möglichkeiten nicht zuletzt der Molekulargenetik eine Entwicklung hin zu einer «Präzisionsmedizin», gekennzeichnet durch rationalere Strategien in der klinischen Forschung & Entwicklung mit einem reduzierten Risiko von Fehlschlägen und im Ergebnis gezielter wirksamen und damit besser verträglichen neuen Therapieoptionen.

Die Analyse des Nutzens und des Kosten/Nutzen-Verhältnisses der labormedizinischen Diagnostik ergibt ein vorteilhaftes Gesamtbild und bietet Anlass zu der Vermutung – die in der Zukunft zu beweisen sein wird –, dass auch komplexe neue diagnostische Methoden sich nicht nur als wirksam und zweckmässig, sondern auch als wirtschaftlich erweisen werden.

Obwohl die Stringenz regulatorischer Anforderungen an die Dokumentation der technischen und analytischen Qualität und vor allem des klinischen Nutzens, operationalisiert als Evidenz für die klinische Effektivität und die Kosteneffektivität, erst in jüngster Zeit erheblich zuzunehmen begonnen hat, stellt sich die Labormedizin in der Schweiz bereits heute als ein Rückgrat der modernen Hochleistungsmedizin dar. Um die Potentiale der sich ankündigenden Ära einer Präzisionsmedizin in der Schweiz zu nutzen und die Wertschöpfung der Laboratoriumsmedizin zu sichern, wird es einer belastbaren Balance zwischen dem Streben nach statischer Effizienz und Kostendämpfung einerseits und dem Erhalt der Innovationsfähigkeit und Anpassungsflexibilität – auch im Sinne einer effektiven Krisen- und Pandemieprävention – andererseits bedürfen. Die gegenwärtig verfügbaren Daten jedenfalls legen nahe, den Fokus primär auf den Beitrag der Laboratoriumsmedizin zur Leistungsfähigkeit und zum Nutzen des Schweizer Gesundheitssystems und erst sekundär auf deren (vergleichsweise niedrigen) Kosten zu legen.