was für eine Woche! Bei uns ist die Ampel seit zwei Tagen Geschichte und Amerika hat sich entschieden! Das Ergebnis kennen Sie und wir müssen es hier nicht weiter kommentieren. Außerdem sind wir noch in Schockstarre. Das eigentlich Erstaunliche an dieser Wahl war der Personenkult, der wie nie zuvor den gesamten Wahlkampf beeinflusst hat. So richtig neu ist das zwar nicht, denn immer schon spielen charismatische Persönlichkeiten in der Politik eine zentrale Rolle. Das gilt besonders für autoritäre Systeme, die starke Führungsfiguren fördern, um das Regime zu legitimieren, während in Demokratien Macht und Entscheidungen in der Regel auf verschiedene Institutionen verteilt sind. Entscheidend ist hier nicht die Person, sondern das Amt.

Inzwischen aber geht auch in Demokratien der Personenkult über die traditionellen Mittel wie öffentliche Reden oder Wahlplakate hinaus. Vor allem die Macht der Bilder soll dafür sorgen, dass Politiker eine persönliche Bindung zu ihrer Wählerschaft aufbauen, die über rationale Überzeugungen hinausgeht. Trump hat das frühzeitig verstanden und gnadenlos genutzt, während seine Kontrahentin sich lange mit Sachthemen und rationalen Argumenten herumgeschlagen hat.

Wer es heute schafft, in den sozialen Medien dauerpräsent zu sein, baut sich selbst als eine persönliche Marke für seine Wähler auf. In Deutschland sehen wir dies vor allem bei Frau Wagenknecht, die wie die Eiskönigin aus Andersons Märchen Schönheit, Kälte und Unnahbarkeit repräsentiert und damit eine rätselhafte Macht über die Menschen gewinnt. Sie ragt aus jedem Foto heraus und schafft es, sich – ähnlich wie Trump – ihre Partei wie Haute Couture auf den eigenen Leib zu schneidern. Mit einem nichtssagenden Wahlprogramm und ohne konkrete Vorschläge für die Umsetzung weckt sie Ideale und Hoffnungen, die ihre Wähler im täglichen Leben berühren. Wer würde sich auch keinen Frieden wünschen?

Eine ähnlich charismatische Figur im politischen Geschehen ist Volodymyr Selenskyj, der frühere Schauspieler und Komiker. Durch seine Entschlossenheit im Krieg gegen Russland hat er weltweit Anerkennung und Unterstützung gewonnen und für die meisten Menschen gilt er als der „Gute“ in diesem bösen Spiel. Auch Macron hat lange durch seine Persönlichkeit und einen dynamischen Führungsstil fasziniert. Seine Vision für ein starkes, vereintes Europa und seine Fähigkeit, sich trotz Herausforderungen eine internationale Beliebtheit zu bewahren, wird nach wie vor als erfrischend und zukunftsorientiert gesehen. In Italien erleben wir Giorgia Meloni, die es in kurzer Zeit geschafft hat, eine starke Bindung zu ihren Wählern aufzubauen – und das als Frau in einem patriarchalisch ausgerichtetem Land. Sie findet klare Worte zu Themen wie Migration und Nationalstolz und wird deshalb als Verteidigerin konservativer Werte und italienischer Souveränität geliebt. In Indien war es Gandhi in der Vergangenheit und heute ist es Modi, der für ein starkes Indien der Zukunft steht. Und für Israel war es Golda Meir, die als faszinierende Figur bis heute als Symbol für Entschlossenheit, nationalen Zusammenhalt und politische Integrität gilt.

Viele der genannten Politiker sind oder waren tatsächlich charismatische Führungspersönlichkeiten, die viel für ihr Land getan haben oder immer noch tun. Trotzdem bringt der Fokus auf Einzelpersonen Risiken mit sich, denn er trägt zur Polarisierung bei und kann jede demokratische Debatte untergraben, wenn die Diskussionen mehr über die Persönlichkeiten als über Sachfragen geführt werden. Auch neigen Politiker mit starkem Personenkult dazu, Kritik als persönlichen Angriff zu interpretieren und sie machen populistische Versprechungen, die kaum umzusetzen sind. Nicht selten tendieren sie zu einem Missbrauch der verliehenen Macht und setzen darüber einen hohen Unterhaltungswert. Aber wie schon Marx sagte – und hier meinen wir den Komiker Groucho Marx: „Macht ohne Missbrauch verliert seinen Reiz!“

Nun ist es mal so, dass Menschen in komplexen Zeiten nach Orientierung und Halt suchen und sich deshalb nach starken Führungspersönlichkeiten sehnen. Anders ist die enorme Unzufriedenheit mit unserer aktuellen Regierung kaum zu verstehen. Das tägliche Schauspiel der drei Koalitionspartner auf offener Bühne in den vergangenen drei Jahren erinnerte stark an Sartres „Geschlossene Gesellschaft“ und wer es nicht kennt, hier ist eine kurze Zusammenfassung:

Das Drama spielt in einem einzigen Raum der Hölle, in dem drei jüngst verstorbene Charaktere, zwei Frauen und ein Mann, auf Ewigkeit zusammengesperrt sind. Es gibt eine Tür, aber die ist verschlossen und lässt sich auch nicht öffnen. Die drei erwarten klassische Höllenqualen, die aber nicht kommen. Der Raum ist gemütlich, vielleicht ein wenig heiß. Bald drehen sich die Gespräche um Schuld, Scham und Abhängigkeit vom Urteil anderer. Immer wieder verbünden sich zwei gegen den dritten und bald wird ihnen bewusst, dass sie selbst es sind, die sich einander die größte Qualen zufügen.

„L’enfer, c’est les autres.“ Die Hölle, das sind die anderen! So lautet die Kernaussage des Stücks und irgendwie scheint diese Aussage auch auf die Ampel zu passen. In gewisser Weise haben wir ein ähnliches Drama auf der politischen Bühne gesehen, mit einem wortkargen Kanzler, der an einen blutleeren Bürokraten erinnert, mit einem Finanzjongleur, der wie ein Investmentbanker auftrat und mehr an Aktienkurse dachte als an die Sorgen der Bürger und einen Philosophen mit idealistischen Überzeugungen auf der Suche nach der grünen Seele der Wirtschaft. Die drei haben zwar irgendwie die gleichen Ziele verfolgt, kamen aber mit ihren unterschiedlichen Ideologien auf keinen gemeinsamen Zweig.

Und so endet übrigens das Stück von Sartre: Als sich die Tür schließlich öffnet, erschrecken alle vor der vermeintlichen Falle der Freiheit. Sie drängen sich aneinander und niemand verlässt den Raum. Wenn einer von ihnen am Ende die letzten Worte sagt: „Also – machen wir weiter?“, hat sich ihre Lage nicht verändert: Sie werden ihre Notgemeinschaft ewig aufrechterhalten, ohne voranzukommen. Soweit, liebe Leser, wird es in unserem Drama aber nicht kommen, denn heute ist die Ampel geplatzt und bald gibt es Neuwahlen.

Mit dem Themen der Woche stellen wir Ihnen diesmal Real-World-Daten mit Dexcom CGM-Systemen vor, dann einen neuen Ansatz für die Error-Grid-Analyse aus der Diabetes Technology Society für Glucosemonitoring und zum Schluss gibt es aktuelle Daten von Digital Oxygen mit einem Poster, das einen eindrucksvollen Länderüberblick zum Thema „Advanced Diabetes Technology“ zeigt. Wir enden mit einem Leserbrief von Thomas Scholz aus Berlin, der sich zu unserem Beitrag aus Das Letzte der vergangenen Woche zur ePA geäußert hat. Ein sehr erhellender Einblick, für den wir Thomas herzlich danken. Auf geht’s.

Über den sinnvollen Einsatz von Real World Daten haben wir bereits vergangene Woche ausführlich berichtet, nun wurden im Rahmen einer Real World Beobachtungsstudie Daten von Patienten mit Typ-2-Diabetes analysiert und nun publiziert, die ein CGM-Systemen von Dexcom G6 oder G7 über mindestens ein Jahr verwendet haben und keine Insulintherapie durchführten:

Real-World-Daten mit Dexcom-CGM-Systemen

Im Rahmen einer Beobachtungsstudie wurden die Daten von Patienten mit Typ-2-Diabetes analysiert und nun publiziert. Die Patienten haben keine Insulintherapie durchgeführt, nutzten aber ein CGM-Systemen von Dexcom, entweder G6 oder G7 über mindestens ein Jahr. Der mittlere Ausgangswert bei der Zeit im Zielbereich (TIR; 70–180 mg/dL) betrug <70%. Nach 6 und 12 Monaten wurden entsprechende CGM-Parameter für alle Patienten evaluiert, die diese über ihre Dexcom-App gespeichert hatten, aufgetrennt für jüngere (<65 Jahre) und ältere Nutzer (≥65 Jahre). Weitere Analysen wurden zum Verhältnis zwischen dem „Hochalarm“ (Alarm bei hohen Glucosewerten, >250 mg/dL) und Änderungen bei der TIR sowie der Zeit im „tight range“ (TITR; 70–140 mg/dL) durchgeführt.

Erinnern Sie sich noch an die Error-Grid-Analyse aus der Zeit vor CGM? Das war eine weit verbreitete Methode zur Beurteilung der Genauigkeit der Blutglucosemessung, weil sie die Ergebnisse eines Glucosemesssystems mit Referenzwerten verglichen hat. So konnte ermittelt werden, wie stark die Abweichungen sind und wie gefährlich diese für die Patientensicherheit sein könnten. Mit Einführung der CGM-Systeme verschwand die Error-Grid-Analyse. Aber Tot-Gesagte leben manchmal länger, denn nun gibt es einen neuen Ansatz der Error-Grid Analyse für die

Beurteilung der Genauigkeit bei Glucosemonitoring-Systemen

Error-Grid-Analyse? Da war doch was in der Zeit vor CGM-Systemen… Wenn aber eine Publikation unter prominenter deutscher Beteiligung in einem anerkannten US-Fachjournal immerhin 93 (!) Autoren hat, was sagt uns das? Bei der Error-Grid-Analyse (EGA) wird ein Messergebnis, welches z.B. mit einem Blutglucosemesssystem (BGM) erhalten wird, mit einem gleichzeitig gewonnenen Referenz-Glukosekonzentration verglichen, um beobachteten Differenzen bei den Messwerten dann eine klinische Risikobewertung zuzuweisen (Punktgenauigkeit).

Unser letzter Beitrag ist ein Gastbeitrag der Firma Digital Oxygen, die uns dankenswerterweise einen Überblick über die aktuelle Situation verschiedener Länder zu Diabetes-Technologie geschickt haben:

Vor einiger Zeit haben wir an dieser Stelle das „Advanced Diabetes Technology“ Poster der Kolleginnen und Kollegen von Digital Oxygen präsentiert. Es zeigt Firmen, die sich mit dem Thema fortschrittliche Diabetes-Technologien befassen. Nun war Digital Oxygen neugierig und hat geschaut, aus welchen Ländern die jeweiligen Firmen kommen: Welche Länder beherbergen die fortschrittlichsten Firmen, wenn es um Diabetes-Technologie geht:

Gilt noch immer „Go West“?

„Go West“! Die USA dominieren nach wie vor das Feld. Das Land bringt ein breites Spektrum an fortschrittlichen Technologien und Softwarelösungen hervor. Diese Marktstellung kann sowohl auf die Innovationskraft als auch auf erhebliche Investitionen in die Gesundheitsversorgung zurückgeführt werden, die angesichts der hohen Diabetesprävalenz in den USA von Bedeutung sind.

Nun kommen wir zum Leserbrief von Thomas Scholz zum Thema ePA, eines der Themen der vergangenen Woche:

„Ihr Lieben, ganz so ist es ja nicht.
Das jetzige ePA-Konstrukt 2.0, das zwangsweise jetzt ausgerollt wird, hat erhebliche Mängel (und auch Risiken für den Arzt: Mit der Übergabe der pdf-Informationen ist der Arzt haftbar, wenn er darin enthaltene Details nicht berücksichtigt und es zu einem Schaden kommt. Die zwei mitgebrachten Ordner eines Patienten kann man schnell nach Wichtigem durchschauen, nicht aber am Bildschirm eine umfangreiche ePA-pdf-Sammlung durchstöbern.)
Doppeluntersuchungen werden nicht vermieden, weil der/die Kranke diese verschatten kann und er/sie mit der erneuten Untersuchung eine Zweitmeinung einholen will. Ebenso wird der Rezeptbetrug nicht unterbunden (z.B. Teststreifenbezug bei verschiedenen Ärzten und Weiterverkauf über ebay). 
Der Arzt hat nach Freischaltung der ePA eine Woche Zeit, die Akte einzusehen. Der Apotheker darf bei jedem Rezepteinlösen drei Tage lang reinschauen, auch seine Angestellten. Wo bleibt da das Arztgeheimnis? In einer Großstadt wie Berlin mag das angehen, nicht aber in einem kleineren Ort mit nur ein oder zwei Apotheken.
Dann die zentrale Speicherung: Jüngst wurden in Berlin die Johannesstift-Kliniken gehackt und erpresst und waren arbeitsunfähig. Selbst IT-Firmen und das FBI wurden schon gehackt. Das erbeutete Datenvolumen der Johannesstift-Diakonie ist begrenzt. Um Vielfaches größer wäre der Schaden, wenn die Datenbank der elektronischen Patientenakte geknackt würde und damit die Krankheitssituation der deutschen Bevölkerung offenliegen würde. Bei dezentraler Speicherung wäre jeweils der Schaden nur lokal begrenzt und nicht umfassend. Andere Länder wie Dänemark oder Finnland haben den Daten-Gau ihrer Patientenakte bereits erlebt. Es kam zu Selbstmorden unter der Drohung, Daten aus der Akte öffentlich zu machen.
„Diagnosen, Laborbefunde und Medikationspläne“ passen auch auf die Versicherten-Chipkarte, dazu bräuchte es keine ePA.
Lauterbachs Anliegen ist primär „Den Datenschatz der Krankheitsdaten zu heben“. Mit KI ist die Pseudonymisierung leicht auszuhebeln, insbesondere bei selteneren Erkrankungen. Versicherer werden großes Interesse an der ePA haben, können Risiken doch damit leichter bewertet werden.
Wer nur ab und an Erkältungen oder Magenverstimmungen hat, der hat keine sensiblen Daten produziert. Psychiatrisch Kranke oder welche mit Geschlechtskrankheiten, Frauen mit Interruptio u.a. sind da mehr gefährdet. Die ePA soll im gesamten europäischen Datenraum zur Verfügung stehen. Interruptio ist in Polen strafbar, die Frau könnte in Polen in Gefahr geraten.
Nicht ausgeschlossen ist, dass nach zehn, fünfzehn Jahren ePA und entsprechender Datenfüllung der Staat sich die rechtliche Genehmigung verschafft, vor einer Verbeamtung Einsicht in die ePA nehmen zu dürfen.
Das Problem ließe sich lösen, wenn das opt out nicht nur jetzt beim Anlegen einer ePA möglich wäre, sondern dass lebenslang die Person das Recht und die Möglichkeit hat, ihre ePA löschen zu lassen.
Ich rate meinen Kindern jedenfalls, erst einmal keine ePA bei den Enkeln anlegen zu lassen.
Schöne Grüße, Thomas“

Zum Schluss noch wie immer das Letzte

Immer mehr Menschen nutzen in ihrem beruflichen Alltag eine künstliche Intelligenz, das gilt auch für die Wissenschaft, Forschung und Klinik. Können wir eigentlich den Chatbots bedingungslos vertrauen? Ja, sagen Tech-Bosse wie OpenAI-Chef Sam Altman. Fehler passieren selten und nur in gut einem Prozent aller Fälle, sagt eine aktuelle Studie.

Besser nicht, sagt ChatGPT, eine KI, die wir dazu befragt haben. Manchmal erzählt die KI ziemlichen Blödsinn und ab und zu phantasiert sie sogar. Da werden Studien zitiert, die es gar nicht gibt oder falsche Informationen gegeben oder die KI erfindet ganze Sätze, die so nie gesagt wurden. Hier ein paar Beispiele:

Die KI GPT-3 wurde nach kaum bekannten historischen Figuren gefragt und begann, erfundene Biografien zu erzählen – manche so überzeugend, dass man kaum merkte, dass es sich um reine Phantasie handelte. Eine plausible Geschichte klingt halt besser als ein „weiß nicht“.
Auch die Bilderkennungsmodelle machen immer wieder Fehler, die zeigen, dass eine KI nicht wirklich versteht, was sie macht. So wurde das Bild eines Teddybären als „Verbrecher“ eingestuft oder das Bild eines Hundes als Toaster.

Auch in der Medizin kommt es immer wieder zu fehlerhaften Analysen, wie bei IBM Watson. Die KI wurde entwickelt, um bei der Krebsdiagnose und -behandlung zu unterstützen, konnte aber die Komplexität der medizinischen Daten und die Besonderheiten von Krebsbehandlungen nicht immer richtig einschätzen. Aktuell gibt es ernsthafte Bedenken hinsichtlich der Zuverlässigkeit von OpenAI‘s KI-Transkriptionsmodell „Whisper“. Die KI wird in vielen Kliniken in den USA eingesetzt, um Gespräche zwischen ÄrztInnen und PatientInnen zu transkribieren, aber offenbar flüstert Whisper gerne mal Inhalte hinzu, die in der ursprünglichen Audiodatei gar nicht vorhanden waren: Sie erfindet Medikamente, Analysen und ganze Sätze, die nie gesagt wurden. Fehler wie diese traten in etwa 80% der untersuchten Transkriptionen auf, was zeigt, dass sie kein Ausnahmefall sind.

Diese Beispiele haben eins gemeinsam: Sie zeigen, dass eine KI nicht wirklich mit Verständnis operieren, sondern mit statistischen Mustern, die sie in ihren Daten entdecken. Wenn diese Muster in neuen Kontexten nicht mehr zutreffen, kann die KI ziemlich daneben liegen. Die gesamte Problematik hat eine Diskussion über die regulatorische Kontrolle und den möglichen Missbrauch von Transkriptions-KI in sensiblen Bereichen ausgelöst. OpenAI arbeitet zwar an Verbesserungen, doch angesichts der weit verbreiteten Anwendung werden nun entschiedene Maßnahmen gefordert, um solche Fehler in der Zukunft zu minimieren.

Besonderes Aufsehen hat der von Microsoft entwickelte Chatbot Tay verursacht. Tay sollte darauf trainiert werden, Sprache und Interaktionen mit dem Internet, insbesondere Twitter mit jungen NutzerInnen, auf spielerische und ungezwungene Weise zu verstehen und durch die Gespräche lernen, mit der Zeit „menschlicher“ zu wirken. Doch dieses Experiment verlief völlig anders als geplant, denn Tay lernte vor allem sehr schnell negative Verhaltensweisen und fing an, rassistische, sexistische und beleidigende Kommentare abzugeben und Verschwörungstheorien zu unterstützen – alles durch das „Lernen“ aus den von Nutzern bereitgestellten Daten.

Dies zeigt, wie anfällig selbstlernende Systeme für Manipulationen sind. Es kann deshalb nicht oft genug und nicht lautstark genug gefordert werden, wie wichtig es ist, ethische und technische Schutzmaßnahmen in die KI-Trainingsprozesse einzubauen und diese zu kontrollieren. 

So, das war’s mal wieder für die Woche. Danke, dass Sie uns bis hier gefolgt sind. Wir enden heute mit einem Statement, das recht gut zu unseren Gedanken aus dem Intro passt:

Gehe nicht vor mir, vielleicht folge ich nicht.

Gehe nicht hinter mir, vielleicht führe ich nicht.

Gehe neben mir und sei mein Freund.

Albert Camus 

Wir wünschen Ihnen ein schönes und entspanntes Wochenende. Bleiben Sie zuversichtlich, trotz allem.

der wöchentliche Newsletter zu aktuellen Entwicklungen zum Thema Diabetes und Technologie.

Für den Versand unserer Newsletter nutzen wir rapidmail. Mit Ihrer Anmeldung stimmen Sie zu, dass die eingegebenen Daten an rapidmail übermittelt werden. Beachten Sie bitte deren AGB und Datenschutzbestimmungen .

Dieser Artikel erscheint als Teil des wöchentlichen Letters zu hochaktuellen Entwicklungen im Bereich Diabetes Technologie. Nutzen Sie das nebenstehende Formular um sich für den diatec weekly Newsletter anzumelden!

Mit freundlichen Grüßen