Welcome back, Herbstdepression

Das ist die Jahreszeit, in der mein Lebensekel blüht, ich alles doof finde und überlege, in den Wald zu ziehen und mich fortan von Tannenzapfen zu ernähren. Tannenzapfensüppchen, Tannenzapfenauflauf und Tannenzapfensalat. Dann merke ich: alles viel zu kalt und regnerisch. Und immer wenn der Arbeitsrechner das elende Email-Angekommen-Geräusch macht, stöhne ich wie ein 120jähriger im Zumba-Fortgeschrittenenkurs. Mein Herbst-Mantra „nicht gut“ wird rausgeholt und mimisch und gestisch umgesetzt. Restbestände an Lebensmut implodieren. Alles ist zu viel. Auch die Weltbevölkerung. Acht Milliarden Menschen? Was kostet eigentlich so ein Flug zu dem japanischen Selbstmordwald?

Wenn ich dann so ein paar Wochen rumgehadert habe, fällt mir wieder ein, ein Eimerchen hochdosiertes Vitamin-D zu essen. Dann geht’s wieder und ich fange an, mich über die Herbstdepression von anderen lustig zu machen.

Aus der Reihe: Lebenstipps um die 50 (nach denen keiner gefragt hat)

Zwist and Shout

Ich bin ja nicht nur Garnix, ein halbgarer Rechthaber, ich bin ja auch ein (geschiedener) Beziehungsexperte, der seit sechs Jahren in einem Konstrukt mit Freundin, insgesamt fünf Kindern, zwei Vollzeitjobs, spannender Verwandtschaft und zu jeder Zeit mit drei bis vier Millionen Alltagsproblemen zu tun hat.

Zwischenfazit: es ist immer irgendwas los und die Möglichkeiten, sich rund um die Uhr über irgendwas aufzuregen oder zu jammern gehen ins Unendliche. Und das wird dann wieder zum Problem: the Circle of Jammerei. Iiiiiirgendwann, wenn man sich zum 72.000 Mal im Kreis gedreht hat, ist das nicht mehr so sexy. Und dann jammert man, weil man immer jammert – auch wenn das Jammern absolute – und spezieller – therapeutische Berechtigung hat. Und, ja, auch: Unterhaltungswert. Die Jammerei als Beziehungs- und Lebenskit? Auf jeden Fall.

Aber wie wir wissen: die Dosis macht das Gift. Es braucht die richtige Balance. Zwischen berechtigter Jammerei, Demut, Zuversicht und Ach-scheiß-egal.

Nur wie will man das hinbekommen, wenn jeder zu unterschiedlichen Zeiten ein unterschiedliches Bedürfnis nach Jammerei hat? Der eine ist gerade und aus Versehen im Zen-Status, während die andere nach einem Hammer sucht, um damit Schädel einzuschlagen. Oder so.

Ganz einfach.

  1. Man lädt eine Mind-Map-Software runter – ist xMind noch kostenlos?
  2. Man bittet die beteiligten Personen um ein bisschen ihrer Zeit und sagt sowas wie: „was geht dir gerade auf die Eier und wo siehst du, äh, Optimierungspotential und wie könnte man das umsetzen?“
  3. Den ersten „Achleckmichdoch“-Widerstand muss man aushalten und ihm begegnen: „alles, was dich gerade unglücklich macht, tragen wir in eine Mind Map ein, die wir ZWIST AND SHOUT nennen. Du bist eingeladen, alles loszuwerden. Von mir aus einmal die Woche – ernsthaft und ausführlich, um ansonsten so ein bisschen durchzuatmen und ‚guten Sachen‘ Raum zu geben.“
  4. Wenn dann die Frage kommt „Was denn für gute Sachen?“ schnappt die Falle zu: wenn es gerade keine oder nicht so viele gibt, wird es höchste Eisenbahn, die Jammerei zu kapseln und zumindest zu versuchen, ein paar Resourcen für jammerfreie Themen freizusprengen.
  5. Das A&O – das Projekt muss nach irgendwas klingen: ZWIST AND SHOUT.
  6. Und wenn alles im Sand verläuft? Hup-hup rufen und (kurz) mit dem Wohnmobil abhauen.

Well, shake it up, baby, now
Zwist and shout
Come on, come on, come, come on, baby, now
Come on and work it on out
Well, work it on out, honey
You know you look so good
You know you got me goin‘ now
Just like I knew you would

RCTs als Goldstandard – Teil 2

Herzlichen Dank an franzmanross für die Links und Hinweise in dieser Sache!

Das ganze Thema halte ich für so wichtig, dass ich ich den Kommentar hier gerne als Beitrag verewigen und weniger fanatischen Lesern einen ersten Einblick verschaffen möchte. Außerdem wird das (m)ein Fundus, um diverse Leitlinienchefs zu nerven. Ganz am Ende, gibt es dann 1 Kilo unqualifizierten Garnix-Senf. 🙂

  1. „Big-data Clinical Trial (BCT) wird RCT ablösen: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3886706/

„Will RCT maintain its dominating position? The answer is No. It is expected that Big-data Clinical Trial (BCT) will reshape the profiles of clinical research (Figure 2), and BCT will take the place of RCT as the dominating research type. Currently, the RCTs are performed in highly selective subjects who are sampled
from an overall population. Though there are findings from these small-sample subjects that guide the clinical diagnosis and treatment of a larger sample of population, the coming big-data era entails more analyses conducted on the overall sample (total subsets), and therefore the conclusion drawn according to the corresponding findings based on a more comprehensive setting. Will RCT disappear for good? The answer is also No. In the big-data era, RCT will play a guiding role. For an interesting finding from a specific RCT, data from a big sample of population will be analyzed for verification before drawing a
final conclusion. Therefore in the big-data era, studies based on ‘case study’ will receive more attention and be elevated to a new level. Many statistical analyses will be based on data obtained from the whole process of diagnosis and treatment of each case prospectively. The quality of data collection during this process will directly affect the reliability of BCT.
In the big-data era, the mysteries of many chronic diseases will be revealed. For instance, research on hypertension currently is still focused on the effectiveness of a specific antihypertensive agent in controlling blood pressure, whereas the so-called control is mainly based on the measurements obtained at several time points. Based on the values of these measurement points, the researchers linked the blood pressure with a specific longterm outcome (e.g., stroke) and then concluded that drug A, compared with drug B, can effectively control blood pressure and reduce the incidence of stroke. However, an ideal blood pressure control, rather than depending on the measurements at several time points every week or every month, should be the maintenance of a stable blood pressure every day, every hour, or even every minute. The verification of this hypothesis will of course depend on the future BCT.
Of course, BCT will also face many challenges, for example, how to define the BCT? How to define the right to data? How to be a qualified architect for a big-data project? How to prepare for the threats of big data?

In conclusion, in the big-data era, the BCT will reshape the profiles of clinical research and succeed as the dominating research type while RCT will take a back seat to play guiding role.“

2. „Die Probleme von RCT (zu teuer, Ergebnisse sind zu breit bzw. zu eng, langer Weg der Implementierung von Ergebnissen in der Praxis) durch Big Data: https://jamanetwork.com/journals/jama/article-abstract/2429723

„Randomized clinical trials (RCTs) have revolutionized medicine by providing evidence on the efficacy and safety of drugs, devices, and procedures. Today, more than 40 000 RCTs are reported annually, their quality continues to increase, and oversight mechanisms ensure adequate protection of participants. However, RCTs have at least 4 related problems: (1) they are too expensive and difficult; (2) their findings are too broad (average treatment effect not representative of benefit for any given individual) and too narrow (trial population and setting not representative of general practice); (3) randomizing patients can make patients and physicians uncomfortable, especially when comparing different types of existing care; and (4) there are often long delays before RCT results diffuse into practice.“

Der Artikel ist kostenpflichtig.

3. „Hinterfragt die klassische Evidenz-Pyramide und fordert einen integrativen Approach: https://academic.oup.com/ejcts/article/53/5/910/4922686?login=true

„The RCT came to be regarded as the gold standard in finding evidence for a treatment in clinical practice (Fig. 1). The essential feature is that the treatment is randomly assigned, so that all known and unknown factors, which might influence the outcome of the treatment under test, are similarly present in both groups. Any difference in outcome can then be attributed to the relative effectiveness of the treatments themselves in achieving the prespecified desirable outcome. A downside of the RCT is that data are acquired specifically to answer one research question and as further questions arise, new data must be acquired by starting all over again. Large databases and registers are now available. In theory, using sophisticated statistical analyses, the difference in outcome attributable to the treatment may be discernible by statistical adjustment for other factors influencing outcome or by matching patients to exclude effects other than those due to the treatment. The dataset continues to accrue patients and can be used repeatedly to answer further questions. As larger and better organized observational datasets are collected, and new meta-analytic techniques are developed, is the RCT’s place unassailable? If, as seems reasonable, RCTs and more complex analytical methods are to coexist, what are their relative merits?

Analysis of existing data can answer a question more quickly than a randomized controlled trial

RCTs take a very long time from conception to publication. It is more than 12 years since the ART protocol was agreed upon and things have changed meanwhile. This makes RCTs irksomely inflexible to the individual surgeon wanting to constantly exercise updated clinical judgement. It also means that the clinical research question may have moved on…

The traditional pyramid of evidence may no longer be sustainable in the current era due to the diversification and the increased complexity of clinical decision making [19]. Perhaps it is time to move towards a more integrated approach to advancing knowledge where clinical trials are embedded in large registries and networks of large datasets, and outcomes are no longer only death and complications but more focused on well-being.“

4. „Ausgehend von der Situation, wenn RCTs nicht durchgeführt werden können: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5772897/

„Thomas Frieden provides us with the most compelling reason to leverage data that is routinely collected in the process of care: “For much, and perhaps most of medical practice, RCT-based data are lacking and no RCT is being planned or is likely to be completed to provide evidence for action. … [It] leaves practitioners with large information gaps for most conditions and increases reliance on clinical lore.” (1) With over 90% of care providers in the United States now using an electronic health record (EHR) system, health data is being collected at a scale (exabytes), resolution (up to 500Hz), and levels of heterogeneity, which are historically unprecedented. (2) The sheer magnitude of such data can leverage population data and facilitate the application of advanced algorithmic techniques which were previously not feasible due to small sample sizes (e.g. for deep learning). Indeed, recent investigations have reported impressive performances using algorithms to automate the diagnosis of skin cancers (3) and diabetic retinopathy. (4) Critically ill patients are an ideal population for clinical database investigations because while the data from ICUs is extensive, the value of many treatments and interventions remains largely unproven, and high-quality studies supporting or discouraging specific practices are relatively sparse. (5) The data-rich ICU environment provides a potential area for uses of artificial intelligence (AI), a highly data dependent entity…

Hospital cultures, along with medical undergraduate and graduate education systems, will need to adapt to a decision support environment that will be quite different in many ways. (14,15) People will learn differently, be trained differently, and practice differently in an environment of data driven AI, and we are just beginning to learn how to do this in the early stages of the use of digital tools in medicine. Meanwhile, those at the forefront of the health data revolution must earn and maintain clinicians’ and society’s trust, and demonstrate that careful and complete data collection, as well as sharing and reuse, are necessary steps to improve patient care.“

5. „Das hier richtet sich an die medizinischen Leistungserbringer:innen, die ja oftmals nicht so begeistert von der Digitalisierung sind: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4327872/

„We envision a learning system where knowledge generation is routine and fully integrated into the clinical workflow. The next step toward this goal is the introduction of formal courses into medical school and residency curricula. These courses will focus on skills needed to build, maintain, and analyze large data sets. The growing importance of Big Data in everyday clinical situations will be emphasized, and students will be given the opportunity to investigate clinical questions that have come up in the course of their clinical rotations…

The time has come to leverage the data we generate during routine patient care to formulate a more complete lexicon of evidence-based recommendations and support shared decision making with our patients. In this setting, the practice of every clinician will necessarily expand to participate in these issues. This must be done without creating enormous extra work for already overburdened clinicians. In contrast, the interactions of regular clinicians with a knowledge-generating system should be rewarding in both the intellectual and workflow senses. All clinicians will share the responsibility of creating a more complete knowledge base and transforming practice to improve care. The data are already being generated. Now is the time to train clinicians who can harness the true potential of this information to provide better care for our patients.“

6. „Ein Review, wie viel Forschung eigentlich schon über Machine Learning und Big Data so gemacht wird: https://www.sciencedirect.com/science/article/pii/S1532046419302308

„The articles in this study were analyzed by their year of publication, to get an overview of the trend of research on application of big data analytics and artificial intelligence in healthcare. It is evident from the findings that research in this field has progressed from 2013 to 2019. Beginning with a single publication in 2013 (0.04%), this field has seen a growth in number of publications over the years. The most significant contribution of 43.20% publications was seen in 2018, which was more than 240% increase from previous years’ contribution (17.47%, 2017) (Fig. 8). This highlights the striking growth in research interest in recent years. The data also reveals that 2019 has seen 17.30% of publications till the month of February, hence it is anticipated to augment further as the year progresses.

Thorough examination of primary studies led to identification of state-of-the-art research and discovery of major research gaps. Implications for future research include a need for more substantial case studies and experience papers on utilization of big data analytics and artificial intelligence in healthcare setup. This would be likely when healthcare stakeholders and practitioners apply these technologies in the real-world healthcare setup, further allowing the discovery of potential of big data analytics and artificial intelligence for enhancing care quality.“

7. „Wie sich Evidenz durch Big Data Analytics verbessern lässt: https://ieeexplore.ieee.org/abstract/document/6758696

„Evidence based medicine (EBM) is the conscientious, explicit, and judicious use of current best evidence in making decisions about the care of individual patients. Each year, a significant number of research studies (potentially serving as evidence) are reported in the literature at an ever-increasing rate outpacing the translation of research findings into practice. Coupled with the proliferation of electronic health records, and consumer health information, researchers and practitioners are challenged to leverage the full potential of EBM…

Physicians do not have time to read extensive documentation. Better way must be found! Thinking out of the box, andmoving further from the traditional healthcare data visualization; it is time for researchers and practitioners
to adopt recent developments in areas such as visual analytics, e.g., SAS Visual Analytics [57]. Visual Analytics present big data in an interactive graph and
chart in a way that is not overwhelming.“

8. „Real World Evidence bezogen auf Use Case Sepsis: https://onlinelibrary.wiley.com/doi/full/10.1111/ijcp.14689 oder https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5657564/

„In this study, after screening 38 605 patients, 235 patients with sepsis were included. One hundred and eighty-three patients were in the dobutamine group and 52 patients were in the milrinone group. For the primary outcome of hospital mortality, there was no significant between-group difference (73/183 in dobutamine group vs 23/52 in milrinone group, OR 0.84, 95% CI 0.45-1.56; P = .574). After adjusting for confoundings between groups by PSM analysis, hospital mortality was consistent with the overall result (50% vs 41.3%, OR 1.42, 95% CI 0.68-2.97; P = .349). For the secondary outcomes, more patients in milrinone group received RRT use (46.2% vs 22.4%, P = .001), had longer length of ICU stay (20.97 ± 22.84 days vs 11.10 ± 11.54 days, P = .004) and hospital stay (26.14 ± 25.13 days vs 14.51 ± 13.11 days, P = .002) than those in dobutamine group.“

9. „Verbesserung der Versorgungsforschung bei Sepsis durch Big Data: https://journals.lww.com/ccmjournal/FullText/2020/03000/Identifying_the_Burden_of_Sepsis_With_Big_Data_.19.aspx

Artikel ist kostenpflichtig.

10. „Verbesserung von Outcomes in der Intensive Care Unit: https://www.sciencedirect.com/science/article/abs/pii/S0883944120306791

„The digitalization of the Intensive Care Unit (ICU) led to an increasing amount of clinical data being collected at the bedside. The term “Big Data” can be used to refer to the analysis of these datasets that collect enormous amount of data of different origin and format. Complexity and variety define the value of Big Data. In fact, the retrospective analysis of these datasets allows to generate new knowledge, with consequent potential improvements in the clinical practice. Despite the promising start of Big Data analysis in medical research, which has seen a rising number of peer-reviewed articles, very limited applications have been used in ICU clinical practice. A close future effort should be done to validate the knowledge extracted from clinical Big Data and implement it in the clinic.“

Artikel ist kostenpflichtig.

11. „Und hier die Gegenposition: Data Analysis will not Result in Knowledge Production about Sepsis (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC8286384/

„A Google Scholar search of the phrase “further studies are indicated sepsis” showed over 700 articles. Clearly, the scientific community feels that more work (more data collection) has to be done in the field of sepsis. Developing testable theories and predictive models for complex systems like sepsis is difficult. It has been suggested that data-driven predictive analysis in ICU will create new knowledge from “big data” which is already being collected in ICUs as part of electronic health records.8 An opposing view point has been put that “too much data is just like no data at all” and a sound theoretical foundation is essential for knowledge production.9,10 Fifty years ago, Simpson pointed out that the application of statistical techniques without prior knowledge of causative mechanisms will lead to fallacious reasoning.11 We need breakthroughs in basic research of metabolic, immunological, and cytokine pathways to uncover the causative mechanisms of organ dysfunction in sepsis.1114

12. „Immer sehr kritisch und leider in Deutschland tonangebend: das https://www.iqwig.de/ … harter Verfechter von RCT als Goldstandard“

„Das unabhängige Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) untersucht den Nutzen und den Schaden von medizinischen Maßnahmen für Patientinnen und Patienten. Über die Vorteile und Nachteile von Untersuchungs- und Behandlungsverfahren informieren wir in Form von wissenschaftlichen Berichten und allgemein verständlichen Gesundheitsinformationen.

Wie erstellt das IQWiG seine Gutachten?

Das IQWiG hat unter anderem den gesetzlichen Auftrag, Vor- und Nachteile von medizinischen Verfahren zu bewerten, also zum Beispiel verschiedene Arzneimittel oder Operationsverfahren untereinander zu vergleichen. Dafür suchen die Mitarbeiterinnen und Mitarbeiter des Instituts in der internationalen Fachliteratur systematisch nach Studien, in denen die gefragten Vergleiche beschrieben sind.

Für die Auswahl und Bewertung der Studien nutzen die Wissenschaftlerinnen und Wissenschaftler die Methoden der evidenzbasierten Medizin. Mit dieser internationalen Standardmethode lässt sich einschätzen, wie zuverlässig das vorhandene Wissen tatsächlich ist.

Wichtig ist dabei: Das IQWiG führt keine eigenen klinischen Studien mit Patientinnen und Patienten durch. Vielmehr sucht das Institut aus den vorhandenen Studien systematisch diejenigen heraus, die ausreichend verlässliche Ergebnisse liefern. Aus diesen Ergebnissen entsteht dann ein zusammenfassendes Gutachten.

Das IQWiG publiziert alle Ergebnisse auf seinen Webseiten und richtet sich damit sowohl an Fachleute und Akteure aus dem Gesundheitswesen als auch direkt an Bürgerinnen und Bürger. Es stellt damit Wissen zur Verfügung, das es allen Beteiligten im Gesundheitswesen ermöglichen soll, informierte Entscheidungen über Untersuchungen und Behandlungen zu treffen.

Wie sieht eine Nutzenbewertung nach EbM-Kriterien aus?

Ganz allgemein folgt eine evidenzbasierte Nutzenbewertung im Gesundheitswesen folgenden Schritten:

  • Formulierung der Fragestellung mit dem PICO Schema: Patient, Intervention, Vergleichsintervention (Comparison), Zielgrösse (

Outcome)Recherche in der medizinischen FachliteraturInformationsextraktion und -bewertung: Dazu gehört die Beschreibung von Methoden und Ergebnissen der recherchierten Studie und die methodische Bewertung der Ergebnissicherheit und der Anwendbarkeit im jeweiligen KontextSynthese („Zusammenschau“) und abschließende Beurteilung aller berücksichtigten Unterlagen“

Mein Kommentar

  1. Muss das einen CTSO-Investor alles interessieren? Naja, wenn ich 20 Aktien im Depot und ein Leben hätte, eher nicht. Das alles geht sehr in die Tiefe und beschreibt grundlegende Gedanken und Problemstellung in der aktuellen Medizin.
  2. Interessanterweise beschreiben die Links ein Problem, das mich beruflich betrifft. Ich habe meinen Arbeitgeber 2017 darauf hingewiesen, dass die operativen Einheiten zunehmend Schwierigkeiten haben, aufgrund der explodierenden Datenmengen noch halbwegs proaktiv volumenstarke Prozesse zu überblicken und vor dem Hintergrund von sich weiter verschärfenden regulatorischen Anforderungen – aber auch im Interesse der Kunden – überhaupt „am Ball zu bleiben“.
  3. Im Falle meines Arbeitgebers gibt es in der gesamten Wertschöpfungskette Prozesse, die jeweils weit mehr als 100 Mio – sagen wir mal – Aufträge pro Jahr abwickeln und nachhalten müssen. Jeder dieser Aufträge hat dabei einen eigenen Lebenszyklus, der in einem Event-Log bzw. Audit Trail festgehalten wird. Pro Auftrag werden durchschnittlich 15 – 30 „Lebensabschnitte“ dokumentiert – mit 5 – 6 Millionen Iterationen. Meint: mit Excel kann man da nix mehr machen.
  4. 2017 dann ein erster Pitch und ein erstes Angebot an unsere globalen Process Owner: lass uns die Daten – idealerweise sogar in Echtzeit – mittels Process Mining visualisieren. Der Market Maker dafür ist interessanterweise eine deutsche Firma. Hier ein kleiner Einblick und eine erste Abgrenzung Process Mining vs Business Intelligence: https://www.youtube.com/watch?v=tom1KnPLoOI
  5. Was ich als König von Deutschland/Europa/Welt hier in einem medizinischen Kontext tun würde?
    1. Erkennen dass Daten einen riesigen Wert haben (haha)
    2. Erkennen dass Mediziner und Wissenschaftlicher drohen, in einem Meer von Daten unterzugehen – auf Kosten der Patienten
    3. Diese beiden Erkenntnisse zusammenbringen und einen „Piloten“ aufsetzen
    4. Innerhalb eines solchen Piloten würde ich mir ein Thema raussuchen – gerne ein schwieriges und schwerwiegendes wie Sepsis
    5. Dann alle Sepsis-Leitlinienchefs aus – sagen wir – Europa zusammentrommeln, eine gemeinsame Vision und Mission entwickeln, wie die „ideale Maschine“ aussieht. Beispielsweise nach den Prinzipien von TRIZ: https://www.youtube.com/watch?v=rgKIWZL25rc
    6. Und weil ich mindestens halbschlau bin, wüsste ich schon die ungefähre Richtung: konkret würde man im ersten Schritt in einem Best-Practise-Workshop gemeinsam definieren, welche Laborparameter in welcher Frequenz bzw. in welchen Situationen gemessen werden. Das wird dann in einer gemeinsamen Leitlinie standardisiert. Wenn sich später rausstellen sollte, das es zu viele oder eher zu wenige Werte sind, kann man nachbessern.
    7. Sobald dieser Standard etabliert ist, sorge ich (als König) dafür, dass alle Kliniken in Europa die notwendige Laborinfrastruktur haben und die Daten in Echtzeit in einer zentralen Datenbank erfassen können (und müssen).
    8. In einem zweiten Best-Practise-Workshop werden dann mögliche Behandlungsrationalen standardisiert: wann kann zum Beispiel welche Medikamentengabe mit welcher Rationale angezeigt sein. Dosierungen werden getrackt und beispielsweise in Bezug auf das Körpergewicht „normalisiert“. Neben den Labordaten können und müssen dann als auch Behandlungs- bzw. Medikamentengabedaten erfasst werden. Auch hier gilt: der Standard muss leben, weiterentwickelt werden und die Wirklichkeit so gut wie möglich abbilden.
    9. Dann käme der große Auftritt von den Datenjungs und -mädchen und Process Mining Experten, die in nullkommanix und fast in Echtzeit Sepsis-Krankheitsverläufe visualiseren und auswerten.
    10. Als Arzt bekomme ich – basierend auf historischen oder Echtzeitdaten – die Möglichkeit, die Behandlung eines aktuellen Sepsis-Patienten in Kontext zu setzen – angepasst auf die aktuelle und individuelle Laborcharakteristik. Mit welcher Wahrscheinlichkeit haben „gematchte“ Patienten aus Historischen- oder Live-Kohorten auf welche Medikation reagiert usw.

      Der Witz dabei: sobald man halbwegs stimmige „Event-Logs“ und eine entsprechende Datenanbindung hat, steht eine solche Process-Mining-Plattform in drei, vier Stunden.

Carpe Dürüm – oder: lass schlackern

Wie hoffentlich alle hier, bin ich begeisterter JERKS-Schauer.

Fahri Yardim, einer der Protagonisten, den meine Freundin wegen JERKS abgrundtief hasst, hat neben JERKS sowas wie eine Reisedoku produziert, die nach zur zwei Folgen von Pro 7 abgesetzt wurde. Alle vier Teile gibt es (kostenlos?) auf Joyn. Die Indien-Folge, ist die dritte, muss man, glaube ich schauen.

„Wer die Hölle fürchtet, für den ist die Vor-Hölle das Paradies.“ Mit Palmblätter-Todeshoroskop, Schlackerei und Ego-Monstertum bis um Anschlag. Carpe Dürüm.

RCT der Goldstandard?

Na, Lust, die grauen Zellen mal anzuwerfen? Okay, frei nach Gina Wild: jetzt wird’s schmutzig.

Erstmal Konsenswissen. Um Level 1 oder Level 2 in Sachen Studien-Evidenz zu erreichen, muss die Studie in der Zukunft liegen bzw. „prospective“ sein. Mit retrospektiven Studien kann man nach der gängigen Meinung nicht über Level 3 hinauskommen. Für Level 1 braucht es dann schließlich und zusätzlich die Randomisierung.

In einem Schaubild sehen die „Levels of Evidence“ wie folgt aus:

Und hier noch mal die Gegenüberstellung RCT vs Cohort Study. Der große (und einzige) Unterschied hierbei ist die Allokation, die potentiell BIAS-anfällig ist. Um einen solchen BIAS zu vermeiden, gilt die Randomisierung als Königsweg. Ansonsten ist man sich einig: man braucht immer eine Kontrollgruppe, um den Anekdoten- und Flip-Coin-Verdacht auszuräumen.

Aha. Watt? Ohne Kontrollgruppe könnte ich zum Beispiel behaupten, dass wenn ich laut „Spaßverderber“ rufe und dabei eine Münze in die Luft werfe, in 50 % der Fälle Zahl fällt.

Das würde in einer solchen „Studie“ dann ungefähr hinkommen und ohne Kontrollgruppe könnte man so doof sein und annehmen, dass die Hypothese stimmt. Mit und dank Kontrollgruppe kann und wird man diese Hypothese aber verwerfen können.

Zwischenfrage: wie sähe denn beispielsweise die perfekte Sepsis-Studie aus?

Antwort: wir hätten ganze viele eineiige Zwillinge, die zur exakt gleichen Zeit in exakt dem gleichen Ausmaß an einer Sepsis erkranken und per Zufallsgenerator einer CytoSorb bzw. einer Kontrollgruppe zugeordnet werden, ohne dass die Ärzte den Unterschied mitbekämen, wer in welcher Gruppe landet, weil man in der Kontrollgruppe beispielsweise Adsorber-Attrappen verwendet. Vier-, Sechs- oder Achtlinge, die man an mehrere Krankenhäuser nach dem gleichen Prinzip verteilt, wären im Sinne einer multi-zentrischen Studie übrigens noch besser. (Wobei man bei „Multizentrikern“ auch fragen kann, ob das wirklich so ideal ist und ob da nicht komische Sachen passieren können, die der Evidenz potentiell eher abträglich sind – aber lassen wir jetzt mal.)

Zwischenfazit: Kontrollgruppen und alles, was einen „BIAS“ vermeidet, sind für eine hohe Studien-Evidenz unverzichtbar.

Macht Sinn, haben wir.

Jetzt gibt es aber noch beklopptere (meine Mutter würde sagen „frechere“) Menschen als mich, die noch vor mir behauptet haben, dass man sich in einem komplexen Kontext – wie zum Beispiel bei der Sepsis – das RCT-Konzept in die Haare schmieren kann.

Wie, was soll das denn jetzt? Geht’s noch? Muss man denn alles immer in Frage stellen? Und ist das jetzt schon Schwurbelei?

Nee. Das sind Prof. Dr. Ince und meine Wenigkeit – eine kleine und wenig feine Minderheit.

Fangen wir an.

Jeder Jeck UND jede Sepsis ist anders. Gibt wenig, was so heterogen ist wie so eine komische Sepsis. Eine ordentliche und homogene Verteilung in Therapie- und Kontrollgruppe ohne wahnwitzig hohe Fallzahlen ist quasi ausgeschlossen.

Beweis gefällig? Gerne.

In dem Snapshot unten sieht man den (Matching-)Aufwand, um eine Sepsis-Studie mit 84 Patienten (2 x 42) auf die Beine zu stellen.

Satte 2.394 Einzelfälle wurden hier für ein passendenes Matching untersucht. Am passendsten waren dann letztlich 42 oder 1,8 % aus zehn Jahren Klinikdaten aus zwei großen Kliniken in Österreich – es geht hier übrigens um die neue Sepsis-Studie aus Innsbruck.

Lesen wir mal rein in diese Studie:

„In this retrospective single-center study, septic shock patients receiving CytoSorb in addition to renal replacement therapy (n = 42) were analyzed and compared to matched controls (n = 42). A generalized propensity-score and Mahalanobis distance matching method (‘genetic’ matching) was applied. Baseline comparability was high. Differences were merely present in higher initial Sequential Organ Failure Assessment (SOFA) scores (median and interquartile range: 13.0 (12.0–14.75) vs. 12.0 (9.0–14.0)) and requirements of norepinephrine equivalents (0.54 (0.25–0.81) vs. 0.25 (0.05–0.54) µg/kg/min) in the CytoSorb group. While remaining fairly constant in the controls, the catecholamines decreased to 0.26 (0.11–0.40) µg/kg/min within 24 h after initiation of CytoSorb therapy. In-hospital mortality was significantly lower in the CytoSorb group (35.7% vs. 61.9%; p = 0.015). Risk factors for mortality within the CytoSorb group were high lactate levels and low thrombocyte counts prior to initiation. Hereby, a cut-off value of 7.5 mmol/L lactate predicted mortality with high specificity (88.9%). Thus, high lactate levels may indicate absent benefits when confronted with septic shock patients considered eligible for CytoSorb therapy.“

Ich übersetze mal bzw. fasse zusammen:

  1. Man hat sich Mühe gemacht, aus 2.394 Sepsis-Fällen sowas wie die erwähnten Zwillingspärchen zu finden.
  2. Die Trefferquote war mit 1,8 % sehr überschaubar und ist ein wichtiges und ein bisschen auch ein fatales Indiz dafür, dass RCTs in diesem Kontext LOCKER zehn Jahre dauern müssten, um hier für eine saubere Aufteilung von nur 2 x 42 Patienten zu erreichen (viel zu wenig!)
  3. Diese Aufteilungs-Genauigkeit ist für Endpoints wie die 28-Tage-Mortalität ein Muss, weil in 28 Tagen unendlich viel passieren kann – und wenn man schon keine echten Zwillinge hat, muss man sich hier wirklich Mühe geben.
  4. Übrigens: der Riesendatenfundus hat trotzdem dazu geführt, dass der SOFA-Score mit 13 vs 12 Punkten und der Vasopressorbedarf mit 0,54 vs 0,25 Dingsda in der CytoSorb-Gruppe höher war – trotz der Riesenarbeit und großer Datenfülle, hat man nennenswerte Unterschiede in den Labordaten.

Und wie steht’s um den „BIAS“? Lassen wir uns auf ein Gedankenspiel ein und unterstellen Sachen.

a.
Wir haben es nur mit einer Klinik zu tun, die grundsätzlich und seit Jahren einen etablierten Sepsis-Behandlungsprozess durchzieht, der natürlich auf den individuellen Krankheitsverlauf angepasst ist.

b.
Am Tag X wird dieser Behandlungsprozess in einem Punkt verändert: alle nierenersatzpflichtigen Patienten bekommen für die Dauer der Nierenersatztherapie alle 24 Stunden einen neuen Adsorber angeklemmt. Sonst bleibt alles beim alten Prozess.

c.
Irgendwann kommt eine junge Ärztin, ein junger Arzt und ein jung* Transgenderdings des Weges mit der festen Absicht, Karriere zu machen.

d.
Die drei nehmen sich die Labordaten von 42 CytoSorb-Sepsis-Patienten vor, suchen sich für diese aus 2.394 Datensätzen die am besten passenden Kontrollgruppen-„Zwillinge“ raus. Alles schön transparent wie hier ungefähr:

e.
Die Arbeit ist quasi getan: jetzt kann durchgezählt werden.

Fazit:
Wenn man meinem Gedankenspiel folgt, komme ich zu dem Schluss, dass eine solche retrospektive Kohortenstudie dem Ideal der idealen Sepsis-Studie näher kommen kann als ein RCT. Und sei es nur, weil man für einen RCT im Zweifel keine zehn Jahre Zeit hat, homogene Vergleichsgruppen zusammenzustellen. Und ob eine BIAS-Gefahr in einer retrospektiven Studie per se besteht, würde ich zumindest bezweifeln. Für mich wird damit eine solche Studie tatsächlich zu einer „echten“ Studie, die einem RCT in nichts nachstehen muss.

Die stumpfe Forderung nach einem RCT als einzig wahre Evidenz scheint mir – nach Betrachtung der Komplexität bzw. Heterogenität bei Sepsis-Patienten – falsch.

CTSO – was alles scheiße ist

Angebot in die Runde: ich sammele und kommentiere hier alle Vorbehalte und verlinke den Beitrag permanent rechts im Menue. Das Datum in Klammern gibt an, wann der Punkt zuletzt behandelt wurde. Wenn ich etwas vergessen habe: her damit.

#Was alles scheiße ist

  1. Der Kurs (17.10.21)
  2. Das Q3-Ergebnis (17.10.21)
  3. Negative Studien: Schädler, REMOVE, Freiburg, Zürich (17.10.21)
  4. Der Kostenapparat mit 200 Mitarbeitern (17.10.21)
  5. Die Guidance in Sachen Umsatzentwicklung (vor/nach August) (17.10.21)
  6. Die Volatilität der Umsätze (17.10.21)
  7. Die großen Vorbehalte in großen Teilen der Ärzteschaft (17.10.21)
  8. Fehlende Insider-Käufe (17.10.21)
  9. Refresh2 und die fragliche Erfolgsaussicht von rein intraoperativen Studien (17.10.21)
  10. Die Kursanfälligkeit in Sachen Shortselling und Optionsverfallstermine (MaxPain) (17.10.21)
  11. Restrisiko, dass die Blutverdünnerstudie scheitert (17.10.21)
  12. Fehlendes und/oder unterschiedliches Verständnis, wann und wie der Adsorber funktioniert (17.10.21)
  13. Bessere Konkurrenz? (17.10.21)
  14. Fehlender Studien-Fokus? (17.10.21)
  15. Fehlende FDA-Zulassung (17.10.21)
  16. Andere Investments sind viel besser (17.10.21)
  17. Die elende Garnix-Rechthaberei (17.10.21)
  18. Fehlende Katalysatoren (17.10.21)
  19. Retrospektive Studien vs RCTs (17.10.21)
  20. Das Management ist doof (17.10.21)
  21. Garnix hat die rosarote Brille auf und ist nicht ernst zu nehmen (17.10.21)
  22. Und was ist mit den Patenten? (17.10.21)

Ad 1 – Der Kurs – 17.10.21: da kann man aktuell nichts schönes dran finden. Wer möchte, kann hier befürchten, dass es auf 2019er Tiefstkurse zurückgeht, weil man in 2019 beim Umsatzzuwachs vergleichsweise auch geschwächelt hat. Die Performance der letzten fünf Jahre ist verheerend:

Ad 2 – Das Q3-Ergebnis – 17.10.2021: Konsenserwartung war bei knapp 12 Mio USD. Meine persönliche Erwartung war mit 15 Mio USD noch viel höher. Mit 9,7 Mio USD verfehlt man die Erwartung also locker um mehr als 2 Mio Euro. Ich behaupte, dass das primär dem hervorragenden Q3 2020 geschuldet ist, in dem man seinerzeit um knapp 80 % YOY gewachsen ist. Sollte 2021 – wie angekündigt – kein Umsatzwachstum YOY ausweisen, dann muss das aber trotzdem kein Weltuntergang sein. Siehe: https://garnixoderguru.com/2021/10/16/ist-ctso-ausgereizt/

Ad 3 – Negative Studien: Schädler, REMOVE, Freiburg, Zürich – 17.10.21: Alle Studien haben nach meinem Dafürhalten eine Gemeinsamkeit: der Einsatz des Adsorbers war jeweils zeitlich begrenzt und schlimmer: nicht angepasst auf die hämodynamische Entwicklung. Schädler kann man im Sinne eines Herantastens ans Thema sicher entschuldigen: der Adsorber wurde in der Frühzeit (2007) erstmal nur ausprobiert und jeweils sechs von 24 Stunden eingesetzt. REMOVE stand für die Hypothese, dass man die Hämodynamik quasi präventiv mit einem rein intraoperativen Einsatz positiv beeinflussen kann. Freiburg kann ich persönlich nichts abgewinnen, weil man hier um den Effekt der „Second Hits“ bereits wusste. Gleiches gilt für Zürich. Meine Hypothese: kein Mensch käme auf die Idee, einen katecholamin- oder antibiotikapflichtigen Patienten nach Schema F nicht mehr zu behandeln bzw. einen Behandlungszyklus abzubrechen. Es gibt sogar Hinweise, dass gerade ein solches Verhalten einen Second Hit begünstigt. Wir haben mit Brouwer, Kogelmann, Innsbruck, Bochum valide Studien, die mit fast 800 Patienten aus meiner Sicht alle vier negativen Studien pulverisieren.

Ad 4 – Der Kostenapparat mit 200 Mitarbeitern – 17.10.21: Geschmacksfrage und Abwägung zwischen Profitabilität und Wachstumsgeschwindigkeit. Schwanke hier selbst. Einerseits würde man schwarzen Zahlen Shortsellern das Wasser abgraben, andererseits macht es – nicht zuletzt für die Patienten – Sinn, mit maximaler Geschwindigkeit an der Studien- und Vertriebsfront voran zu kommen. Wunsch hier wäre ein Headcount-Freeze und Zurückhaltung bei den Boni und Gehaltssteigerungen.

Ad 5 – Die Guidance in Sachen Umsatzentwicklung (vor/nach August) – 17.10.21: Der Track-Record beim Thema Guidance ist gruseligst. Von wegen Inflection-Point. Alles Quatsch. Ich unterstelle, dass Juli 2021 so stark war, dass man den Aktionären was Gutes tun wollte mit der Guidance Anfang August. Ging schwer nach hinten los. Ich sehe zwei Optionen: A. Flucht nach vorn mit maximaler Transparenz und Offenlegung aller Umsätze quasi in Echtzeit (so ein bisschen analog zu den Tradezahlen und Handelsvolumina bei Lang & Schwarz) oder B. Schnauze halten bzw. nur noch von realisierten Umsätzen sprechen. Ich fände Option A spannend, weil sie von einem gewissen Selbstvertrauen zeugen und tendenziell die riesige Kursvolatilität rausnehmen würde. Wöchentliche oder monatliche Zahlen aus den Studien wären hier auch nicht schlecht. Ehrlich gesagt habe ich dabei keine Ahnung, ob das irgendwer sonst macht und wie die SEC das fände.

Ad 6 – Die Volatilität der Umsätze – 17.10.21: wird uns weiter begleiten, einfach weil es wirklich saisonale Effekt und Stockorders gibt, die das ganze Bild aktuell um locker 30 % verschieben können. Vielleicht wäre hier in Ad 5 skizzierte Transparenz ein Ausweg.

Ad 7 – Die großen Vorbehalte in großen Teilen der Ärzteschaft – 17.10.21: Frage: wie viel Beachtung verdienen aktuell Ärzte, die keine Anwendungserfahrung haben und auf den Tag warten, dass der Adsorber beispielsweise in den Leitlinien steht? Antwort: keine. Ja, man braucht RCTs und Leitlinienaufnahme. Dauert noch. Frage: wie viel Beachtung verdienen Anwender, die den Adsorber kennen aber mutmaßlich falsch einsetzen (siehe Ad 3): alle. Bin da auch optimistisch: so schwer ist das alles nicht nachzuvollziehen – es heißt einfach HämoDYNAMIK und nicht HämoSTATIK.

Ad 8 – Fehlende Insider-Käufe – 17.10.21: Hätte nix dagegen, wenn der Vorstand regelmäßig(er) zuschlägt.

Ad 9 – Refresh2 und die fragliche Erfolgsaussicht von rein intraoperativen Studien – 17.10.21: hier hat man wohl alles selbst in der Hand. Die Studie in die Kursschwäche hinein abzubrechen? Schwierig. Finde Tabula Rasa immer gut – aber jetzt gerade nicht so richtig. Vielleicht gelingt aber auch eine positive Überraschung? Es gab schon ein paar Indizien, dass intraoperativer Einsatz Vorteile haben kann.

Ad 10 – Die Kursanfälligkeit in Sachen Shortselling und Optionsverfallstermine (MaxPain) – 17.10.21: Flucht nach vorne mit maximaler Transparenz bei den Umsätzen – siehe ad 5?

Ad 11 – Restrisiko, dass die Blutverdünnerstudie scheitert – 17.10.21: Im wesentlichen basieren die RCTs auf dieser Studie aus Hamburg

Und der Aussage der Studienleitung: „Die intraoperative Anwendung der CytoSorb-Hämoadsorption bei Patienten unter Ticagrelor- oder Rivaroxaban-Behandlung, die sich einer Notfalloperation am offenen Herzen unterziehen, ist eine sichere und wirksame Methode zur Verringerung von Blutungskomplikationen und zur Verbesserung der postoperativen Ergebnisse.

Das ganze ist keine Raketenwissenschaft. Der Nachweis, dass Ticagrelor und Rivaroxaban entfernt werden ist prinzipiell erbracht. Die theoretischen Behandlungsvorteile im Rahmen einer Notfall-OP sind schlüssig. Die Asklepios-Studie mit 55 Patienten liegt auf dem Tisch. Nach allem, was man hört, ist das Verfahren bei Asklepios Standard of Care.

Könnte also klappen – auch wenn ich mich scheue, hier irgendeinen Prozentwert dranzupappen, wie ich es eigentlich gerne tun möchte. Ob bei einem Fail die Lichter ausgehen? Glaube ich nicht und kommentiere ich bei der rosaroten Brille.

Ad 12 – Fehlendes und/oder unterschiedliches Verständnis, wann und wie der Adsorber funktioniert – 17.10.21: Dauert einfach noch, bis alle Hypothesen abgearbeitet sind. Der REMOVE-Fail könnte hier schon der Durchbruch sein: welche Schlüsse zieht die Studienleitung (Prof. Donest). Wie geht Freiburg mit den hervorragenden Ergebnisses des CTC-Registers um? Wie geht Zürich mit der Innsbruck-Studie um? Wann wird Kogelmann verstanden und gewürdigt?

Ad 13 – Bessere Konkurrenz? – 17.10.21: aus meiner Sicht hat man Zeit- und/oder Kostenvorteile. Im übrigen sind die Studienergebnisse nicht übertragbar. Wenn man sich die PubMed-Statistiken anschaut: CytoSorb ist Market Maker und das Anwendervertrauen dürfte einen Unterschied machen.

Ad 14 – Fehlender Studien-Fokus? – 17.10.21: Schließe mich da DrKangaroo an und würde sagen, dass Dr. „Makis“ hier Struktur und Fokus reingebracht hat. Sobald ich im Lotto gewinne, spendiere ich hier noch einen FDA-RCT in Sachen akutes Leberversagen. Und, nein, nicht weil ich selber saufe. Höchstens wegen Fettleber.

Ad 15 – Fehlende FDA-Zulassung – 17.10.21: Ja, wäre gut und ist in Arbeit.

Ad 16 – Andere Investments sind viel besser – 17.10.21: In den letzten – sagen wir – fünf Jahren? JA! Um mich mal festzulegen: abgerechnet wird spätestens am 28.08.2024 – so Harry Haller mäßig. 🙂

Ad 17 – Die elende Garnix-Rechthaberei – 17.10.21: Bin für Vorschläge offen. Kann aber ein genetisches Problem sein.

Ad 18 – Fehlende Katalysatoren – 17.10.21: Tja, der Fokus ist gesetzt: die Blutverdünnerstudie. 5 von 21 study locations rekrutieren Stand heute. Der erste Patient ist durchgeschleust. Sobald das irgendwie Sinn macht, gibt es hier ein Dashboard dazu. 120 Patienten / ca. 20 Study Locations = 6 Patienten pro Krankenhaus. Bei nur einem Patienten pro Monat, könnte das Ding Mitte nächsten Jahres durch sein bzw. in die Auswertung gehen, sagt der naive Optimist in mir. Schauen wir mal.

Ad 19 – Retrospektive Studien vs RCTs – 17.10.21: Ich persönlich kann an retrospektiven – gerne auch monozentrischen Studien – NICHTS doof finden, Laborwerte sind Laborwerte, Outcomes sind Outcomes und monozentrisch ist gut, weil anzunehmenderweise die Prozesse ähnlicher sind als in multizentrischen Studien. Bin übrigens nicht der einzige, der RCTs als Goldstandard in Frage stellt. Aber lassen wir das.

Ad 20 – Das Management ist doof – 17.10.2021: Berechtigte Frage: die Eignung von Medizin-Männern als CEO. Schwebendes Verfahren, würde ich sagen.

Ad 21 – Garnix hat die rosarote Brille auf und ist nicht ernst zu nehmen – 17.10.21: Können wir diskutieren, nachdem sich irgendwer – außer mir – INHALTLICH näher mit den Studien auseinandergesetzt hat und mir das dann immer noch vorwirft. Warnung: als Reservemunition habe ich immer noch ein paar intime Emails von Anwendern auf Lager. 🙂

Ad 22 – Und was ist mit den Patenten? – 17.10.21: Habe die alle mal gelesen. Bisschen was läuft ab, andere Dinger halten noch 10+ Jahre. Mit Cytosorb XL könnte man noch mal frische 20 Jahre bekommen. Ist nicht meine Hauptsorge.

Datadog vs CTSO

Gerade Datadog angeschaut, die von Kuma erwähnt wurde.

Datadog wird aktuell zum 62fachen Umsatz gehandelt.

CTSO wird aktuell zum 4fachen Umsatz gehandelt.

Gerundet ist Datadog in dieser Betrachtung 16 mal teurer. Anbei die Umsatzentwicklung im Vergleich.

Und der Gross Margin Vergleich.

Bitte um Nachsicht: Datadog legt ein tolles Umsatzwachstum bei glänzenden Margen hin – aber mir fehlt die Fantasie, um die Bewertung von Datadog investierbar zu finden.