- vor 5 Monaten
Vera spricht mit Dr. Anke Diehl (Universitätsmedizin Essen, Leiterin smarthospital.nrw) und Rae Grimm (Webedia) darüber, wie KI das Gesundheitswesen ganz praktisch verändert. Von der Radiologie bis ans Patientenbett. Anke erklärt, was hinter dem Smart-Hospital-Ansatz steckt und zeigt Prototypen aus dem Klinikalltag: Sprachsteuerung für Großgeräte in der Angiografie sowie Assistenzsysteme, die am Bett Auskünfte geben, Prioritäten setzen, Alarme auslösen und Dokumentation erleichtern.
Es geht um Diagnostik durch Bildanalyse, Therapie-Optimierung (u. a. Diabetes-Loop mit CGM und Pumpe), aber auch um die großen Hürden: fehlende Interoperabilität, einheitliche Datenstandards, die elektronische Patientenakte und der Spagat zwischen Nutzen und Datenschutz.
Rae bringt die Perspektive der mentalen Gesundheit ein: Erfahrungen mit AI-Companions wie Character.AI und Replika, Chancen für Begleitung und Risiken durch toxische Interaktionen und Datenweitergabe. Dazu: Ethik, kritische Infrastruktur, Vertrauen schaffen und warum KI menschliche Expertise ergänzt, nicht ersetzt.
Hinweis: Wenn es dir psychisch nicht gut geht, hilft die Telefon-Seelsorge (0800 111 0 111 und 0800 111 0 222) oder der ärztliche Bereitschaftsdienst unter 116 117.
Es geht um Diagnostik durch Bildanalyse, Therapie-Optimierung (u. a. Diabetes-Loop mit CGM und Pumpe), aber auch um die großen Hürden: fehlende Interoperabilität, einheitliche Datenstandards, die elektronische Patientenakte und der Spagat zwischen Nutzen und Datenschutz.
Rae bringt die Perspektive der mentalen Gesundheit ein: Erfahrungen mit AI-Companions wie Character.AI und Replika, Chancen für Begleitung und Risiken durch toxische Interaktionen und Datenweitergabe. Dazu: Ethik, kritische Infrastruktur, Vertrauen schaffen und warum KI menschliche Expertise ergänzt, nicht ersetzt.
Hinweis: Wenn es dir psychisch nicht gut geht, hilft die Telefon-Seelsorge (0800 111 0 111 und 0800 111 0 222) oder der ärztliche Bereitschaftsdienst unter 116 117.
Kategorie
🎮️
VideospieleTranskript
00:00Herzlich willkommen zurück. Eben gerade hatten wir es ja mit der KI in Haushaltsgeräten heute und in diesem Slot reden wir über KI im Gesundheitswesen.
00:13Künstliche Intelligenz ist ja so ein Schlagwort, nicht nur hier auf der IFA, sondern generell.
00:19Aber während KI unser Zuhause ja smarter machen möchte und in unseren Alltag bequemer,
00:24gibt es einen Bereich, in dem sie ein weit größeres Potenzial hat, aber auch sehr viel sensiblere Fragen aufwirft und zwar unsere Gesundheit.
00:34Wie können wir KI nutzen, um die Medizin zu revolutionieren, ohne unsere sensibelsten Daten zu gefährden?
00:40Darüber sprechen wir heute und zwar mit meinen zwei fantastischen Gästen.
00:44Herzlich willkommen, schön, dass ihr da seid. Einmal Frau Dr. Anke Diehl, herzlich willkommen und Ray Grimm.
00:50Ihr seid Expertinnen auf dem Gebiet. Anke, du bist promovierte Romanmedizinerin eigentlich.
00:59Ab 2021 warst du Deutschlands erste Chief Transformative Offizierin und Leiterin der Stabstelle Digitale Transformation an der Universitätsmedizin Essen.
01:09Wow, was ein Satz. Und du hast das Smart Hospital eingeführt.
01:16Darüber werden wir gleich noch ein bisschen genauer sprechen in NRW. Herzlich willkommen, schön, dass du da bist.
01:22Super, ich freue mich.
01:24Ray, du bist ja bei uns, bei Vibedia.
01:28Du bist seit Jahrzehnten im Videospieljournalismus tätig und du warst Chefredakteurin bei GamePro
01:35und bist mittlerweile als übergreifende Chefredakteurin bei Vibedia für Gaming und Tech verantwortlich.
01:40Du nutzt aber in deiner Arbeit oft in persönlichen Selbstversuchen KI-Avatare und testest die so ein bisschen und hast da uns heute einiges mitgebracht.
01:54Auch darüber werden wir sprechen. Das heißt, wir haben einmal eine Expertin da für das Gesundheitswesen, also für die körperliche Gesundheit
02:01und Ray als Expertin für die mentale Gesundheit. Schön, dass ihr da seid.
02:07Gut, Anke, fangen wir doch mal mit dir an. Was ist das Smart Hospital? Was hast du da gemacht?
02:16Also Smart Hospital als solches bezeichnet im Grunde die Digitalstrategie, die wir an der Universitätsmedizin Essen verfolgen.
02:24Und das ist ein Unterschied zu smarthospital.nrw. Das ist ein großes Förderprojekt des Landes Nordrhein-Westfalen,
02:31vom Wirtschaftsministerium gefördert, ein 15 Millionen KI-Flagship für Nordrhein-Westfalen und das leite ich.
02:40Und da geht es wirklich darum, wie können wir durch KI die Krankenhäuser von heute zukunftsfähig machen.
02:46Also nicht nur verschiedene KI-Use-Cases entwickeln, sondern wirklich auch gucken, was für Change-Modelle brauchen wir,
02:55was für Geschäftsmodelle kann man daraus ableiten. Also wirklich, wie können wir die Krankenhäuser zukunftsfähig machen
03:02und dann eben in drei Arbeitspaketen auch Prototypen entwickeln.
03:06Zum Beispiel, wie man mit Sprache große Geräte, wie zum Beispiel eine Katheterangiografie,
03:13also diese radiologischen Großgeräte steuert. Oder auch, wie kann der Patient im Patientenbett wirklich mit Sprache arbeiten,
03:22wie kann die KI das verarbeiten, dann als Pflegepersonal weitergeben, wie wird das priorisiert.
03:28Also das sind dann quasi so KI-Prototypen, aber das Ganze soll eben die Krankenhäuser zukunftsfähig machen.
03:34Wir haben einen kleinen Trailer mitgebracht. Wir schauen da einmal ganz kurz rein zum Smart Hospital.
03:41Wichtig ist dabei, dass diese Technikentwicklungen im Krankenhaus entwickelt werden
03:47und dann eben in die Anwendung direkt integriert werden.
03:51Das heißt, die Transformation ist von Anfang an ein wichtiger Aspekt von diesem Projekt.
03:57Wir entwickeln also nicht nur isolierte KI-Technologie, sondern wir schauen auch auf Change-Modelle im Krankenhaus.
04:06Was muss man tun, um künstliche Intelligenz in die Anwendung zu bringen?
04:11Anke, was sind Change-Modelle?
04:14Also Change-Modelle sind eben Vorgehensmodelle.
04:17Wie kann sich das Krankenhaus verändern, um eben mehr digitale Technik und auch KI zu nutzen und zu entwickeln?
04:25Nicht jedes kleinere Krankenhaus hat natürlich wie wir ein großes Institut für künstliche Intelligenz in der Medizin.
04:32Also wir haben sechs Professuren dafür und haben sehr viele ITler, die da drin arbeiten.
04:39Und das ist natürlich klar, dass das wäre gar nicht sinnvoll, wenn jedes Krankenhaus quasi was Eigenes erfindet.
04:45Sondern im Grunde muss man halt dann diese Technologien integrieren und in die Prozesse mit einarbeiten
04:52und auch gucken, wie entstehen dadurch neue Prozesse der innovativen Gesundheitsversorgung.
05:00Du hast es ja eben gerade schon angesprochen, dass es verschiedene Bereiche gibt, in denen man KI einsetzen kann.
05:06Ein Bereich, den ich besonders spannend fände, wäre ja so die Diagnostik.
05:10Also KI in der Diagnostik oder die diagnostischen Verfahren anhand von Footage irgendwie, das man bekommt.
05:20Wie ist da der Stand aktuell?
05:23Genau, also im Krankenhaus setzen wir im Grunde in vier Bereichen KI ein.
05:27In der Administration, also in der Verwaltung.
05:29Das ist wie in den meisten anderen Verwaltungen auch.
05:32Insofern braucht man darüber nicht zu reden.
05:34Dann in der Diagnostik, in der Therapie und in der Prävention.
05:39In der Diagnostik, da hat das Ganze so ein bisschen angefangen.
05:43Also ich bin mir sicher, dass die Zuschauerinnen und Zuschauer auch schon mal davon gehört haben,
05:48zum Beispiel Bildanalysen von radiologischen Aufnahmen.
05:52Ich habe selbst also sehr lange, elf Jahre in der Radiologie gearbeitet.
05:56Und wenn ich daran zurückdenke, ohne die KI, kann man sich vorstellen, in diesen Schnittbildern,
06:02die sind alle paar Millimeter durch zum Beispiel einen Tumor geführt.
06:05Und dann haben wir früher ausgemessen und auf den verschiedenen Schichtbildern quasi ausgemessen.
06:12Und dann überlegt, naja, ist das jetzt eine Kugel, ist das ein Rechteck?
06:16Also man hat dann ungefähr so ein Volumen herausbekommen.
06:19Und ich glaube, das ist allen offensichtlich, dass wenn eine KI nicht nur das ganz schnell berechnen kann,
06:26sondern dann auch im Verlauf sehen kann, okay, wie hat sich das entwickelt,
06:31dann ist es natürlich auch etwas super Wichtiges eben für die Diagnostik
06:36oder alleine schon die Differenzierung von verschiedenen Sachen.
06:41Und das ist jetzt nur auf einem Bereich, zum Beispiel die Radiologie.
06:44Richtig toll wird es eben, wenn ich verschiedene Datenquellen kombinieren kann.
06:50Also wenn ich jetzt zum Beispiel Laborwerte, um zu sehen, ist das jetzt,
06:56was ich da vielleicht als, ja, auf der Haut habe, entzündlich auch ist, ja,
07:02oder ist das ein Druckgeschwür oder was für Symptome hat denn der Patient, die Patientin?
07:09Wenn ich also diese verschiedenen Datenquellen miteinander kombinieren kann,
07:14kann ich natürlich viel bessere Vorhersagen machen.
07:18Ich kann diagnostisch und auch dann im Sinne der Therapie wirklich viel differenzierter vorgehen.
07:25Und das ist das, was wir noch in Deutschland so ein bisschen hinterherhinken, sage ich jetzt mal,
07:32dass wir wirklich diese Datenquellen, die Gesundheitsdaten als solche systematisch strukturiert,
07:38nach internationalen Nomenklaturen, also nach einheitlichen Formaten abgelegt,
07:44dann miteinander kombinieren und verwenden können.
07:48Okay, das ist sehr, sehr spannend.
07:50Also Diagnostik finde ich persönlich einfach, da ist eine KI eigentlich wie viel gemacht, oder?
07:56Absolut, aber halt auch in der Therapie.
07:59Also wenn dann mir die KI im Grunde hochrechnet, wie viel von etwas hat,
08:06also zum Beispiel welcher Therapieansatz hat dann einen Tumor zum Schrumpfen gebracht,
08:14oder hat es überhaupt nichts gebracht, oder wenn man sich überlegt,
08:19ich habe gesehen, du trägst so einen kontinuierlichen Glucosesensor,
08:23also quasi für Diabetiker, der kontinuierlich misst.
08:28Und da laufen ja auch alle Daten, genau, kannst du einmal zeigen,
08:31also ein CGM, und da laufen alle Daten dann zusammen.
08:36Und wenn die KI dann noch weiß, was zum Beispiel mit einem Insulinpen gespritzt wurde,
08:41und was du vielleicht gegessen hast, oder ob du mal trainieren warst,
08:47irgendwie Sport gemacht hast oder Ähnliches, dann weiß sie schon im Vorfeld,
08:53weil sie halt gelernt hat, auch aus den Monaten, Jahren von dieser Nutzung,
08:59ja, wie viel Einheiten Insulin brauchst du denn?
09:02Und dadurch kann man natürlich dann den Blutzuckerspiegel,
09:05jetzt beim Beispiel CGM, ganz konstant halten.
09:09Und dann treten halt extrem viel weniger Nebenwirkungen auf,
09:14die früher halt wirklich etwas, was auch das Leben verkürzt hat.
09:18Und das ist was ganz Tolles, ja, dass eben bei solchen Verfahren dann das dazu geführt hat,
09:24dass man extrem viel weniger Nebenwirkungen einer Diabetes-Therapie überhaupt erfährt als Patient
09:29und dadurch natürlich länger und gesünder auch leben kann.
09:33Also ich muss ganz ehrlich sagen, es geht mir genauso, wie du das beschrieben hast gerade.
09:38Für mich ist meine Lebensqualität einfach dadurch so viel höher gestiegen.
09:47Dadurch, dass es ja eben ein, ich weiß nicht, inwiefern jetzt sind wir so ein bisschen bei Diabetes,
09:52aber ich kann das ja mal kurz erzählen.
09:54Das ist quasi ein Loop-System, also der Sensor kommuniziert mit meiner Pumpe
09:57und der Sensor misst dann eben den Blutzucker und die Pumpe passt sich dem an,
10:03was der Sensor ihr mitteilt.
10:05Und da ist auch ein Algorithmus integriert, der quasi mitlernt und das so immer darauf anpasst.
10:12So, das kurz dazu.
10:14Mich würde natürlich auch interessieren, wie ist das auf der Station?
10:18Also KI bei PatientInnen, du hast es eben gerade schon angesprochen.
10:24Was wird da so gemacht und getestet?
10:27Und vor allen Dingen, wie akzeptieren das die Leute auf Station?
10:31Also tatsächlich, KI ist ja nicht im luftleeren Raum, sondern das arbeitet ja mit Gesundheitsdaten.
10:38Und um nochmal kurz dieses Beispiel zu zitieren, das ist zum Beispiel etwas, diese CGM-Daten,
10:44die kriegen wir nicht in unser Krankenhaussystem hinein, weil Gesundheitsdaten sind speziell geschützt
10:52und sind ja auch immer personenbezogen und die sind jetzt nicht quasi im luftleeren Raum.
10:58Und tatsächlich gibt es leider keine Systeme, wo man jetzt ohne eine Barriere,
11:06ohne eine technische Barriere einfach diese Daten zum Beispiel integrieren könnte
11:10in unser Krankenhausinformationssystem.
11:12Und das ist etwas, was wir unseren PatientInnen ganz schwer nur vermitteln können.
11:19Weil die kommen jetzt und dann sagen wir, okay, wir müssen leider bei ihnen dreimal am Tag Blutzucker quasi messen.
11:27Und die sagen, ey, Moment mal, ich habe doch aber hier so einen CGM-Sensor
11:31und ich kann ihnen das doch auch in der App zeigen.
11:34Aber eigentlich müssten wir halt quasi dann in den Finger stechen und das Ganze dann nachhalten.
11:40Und diese quasi auf der einen Seite Standardisierung der Gesundheitsdaten, da hinken wir in Deutschland hinterher.
11:49Also da gibt es ein tolles Format und das müssen wir viel mehr ausrollen.
11:55Das heißt Feier.
11:55Wir werden ja nachher nochmal auf die Gesundheitsdaten und KI und wie das in Deutschland mit den Regierungen aussieht,
12:05da werden wir nachher nochmal drauf zu sprechen kommen.
12:07Wo ich so ein bisschen drauf hinaus wollte, war, was ich gelesen habe, was das Smart Hospital ja auch noch umfasst,
12:12sind sowas wie Sprachassistenten für Patienten, die dann da stehen.
12:17Ich glaube, das war Yuki und Lukas ist bei euch im Einsatz.
12:23Genau, das sind eben auch diese Prototypen, die wir quasi entwickelt haben.
12:28Also bei dem einen geht es wirklich darum, dass ich, man hat es eben in dem Trailer gesehen, in diesem Einspieler,
12:34da stand Professor Tyson an einer Angiografie, an so einer Katheter-Angiografie.
12:39Und man sah dann einen Perfusor, also eine Einspritzanlage von Kontrastmitteln.
12:48Und normalerweise ist es jetzt so im Moment, dass man immer jemand von außen,
12:53das ist ja ein radiologischer, ein röntgenbeschützter Bereich,
12:57und dann muss jemand von außen kommen und muss diese Spritze bedienen, um das Kontrastmittel einzuspritzen.
13:03Und das können wir halt mit Sprache dann ansteuern, dass man dem halt sagt,
13:09okay, jetzt entlüften, ist entlüftet, okay, und jetzt dann die Flussrate einstellen
13:14und wie viel Volumen dann da durchgehen soll.
13:17Das ist also praktisch, um das Personal zu entlasten, dass der Angiografie,
13:23also derjenige, der steril da steht, das auch bedienen kann.
13:26Viel spannender ist tatsächlich aber diese Anwendung im Patientenbett.
13:30Also der Patient kann dann auch Fragen stellen.
13:33Der kann zum Beispiel fragen, ja, ein Arzt, Ärztin hat jemand mitgeteilt,
13:38sie haben eine Patellaluxation.
13:40Und dann hat man sich gar nicht getraut zu fragen, was ist das denn?
13:44Und dann kann man fragen eben, ja, was ist denn eine Patellaluxation?
13:49Was für Spätschäden gibt es?
13:50Oder ich habe bis hier dieses Medikament bekommen.
13:54Was für Nebenwirkungen können da auftreten und ähnliches?
13:58Also das Erste, wovon du erzählt hast, ist Lukas, richtig?
14:03Ne, Lukas ist nochmal was anderes.
14:05Ach, nochmal was anderes.
14:06Ja, okay.
14:07Wir haben auch einen kleinen Trailer zu Lukas, den können wir uns gerne anschauen.
14:10Ja gut, dann.
14:11Weil das finde ich von den beiden ziemlich am coolsten eigentlich.
14:15Das ist am Patientenbett, genau.
14:18Lukas ist ein Assistenzsystem für Pflegestationen im Krankenhaus,
14:21das sowohl von Patientinnen als auch vom Pflegefachpersonal genutzt wird.
14:25Es zielt darauf ab, die Aufenthaltsqualität der Erkrankten zu erhöhen,
14:29umfassend zu informieren und die Dokumentationspflichten
14:32sowie die Koordination von Abläufen für die Pflege zu vereinfachen.
14:35Was Lukas so besonders macht, ist seine Fähigkeit,
14:37Informationen aus einer Vielzahl von Quellen zu beziehen und zu bewerten.
14:41Dabei greift Lukas auf das Klinik-Informationssystem,
14:44den Dokumentationssystem der Pflege sowie verschiedene Sensoren
14:47wie Schlafmatten und Smartwatches zurück.
14:50In kritischen Situationen oder wenn eine schnelle Kommunikation erforderlich ist,
14:54kann Lukas proaktiv sowohl Patienten als auch das Pflegefachpersonal kontaktieren.
14:59Während des Arbeitstages agiert Lukas als stiller Beobachter.
15:03Er führt die Dokumentation weitestgehend automatisch durch
15:06und kann am Ende der Schicht mit den Pflegefachpersonen offene Punkte durchgehen.
15:11Wo bringt Lukas jetzt messbaren Nutzen auf der Station, wenn man das einsetzt?
15:16Also das sind wie gesagt nur Prototypen erstmal.
15:20Aber bei diesem Beispiel ist es zum Beispiel so, dass Frank Müller, der Patient,
15:25der hat geschlafen und dann ist er aufgewacht und wurde dann gefragt per Sprachbox,
15:30wie er geschlafen hat und er hat gesagt, ich habe nicht gut geschlafen.
15:33Wieso? Und er hat dann gesagt, ich habe Schmerzen.
15:36Da muss er in der Schmerzskala eingeben, wie stark diese Schmerzen waren.
15:41Und dann springt im Grunde bei der Pflege, die hat ja quasi mehrere Patienten immer in der Betreuung,
15:50kommt so ein Alert, eine Blase, die dann sagt, ey, der Frank Müller, der hat Schmerzen.
15:56Also wo vorher quasi alle so untereinander stehen.
15:59Das heißt also, dann wird man direkt darauf aufmerksam gemacht.
16:02Da gibt es einen Patienten, dem geht es nicht gut.
16:05Und kann dann auch eine Aktion veranlassen.
16:08Zum Beispiel eben fragen, möchte er ein Schmerzmittel nehmen oder wo sind diese Schmerzen?
16:16Und dadurch, also die KI macht eine Priorisierung der ganzen Tasks, die anstehen.
16:22Also zum Beispiel, ich muss jetzt in der Station einmal Blutdruck messen oder ähnliches.
16:27Und wenn dann so ein Alert kommt, Schmerzen, dann springt es sofort nach oben
16:31und macht eben die Pflegekraft darauf aufmerksam, hier ist etwas nicht in Ordnung,
16:36hier muss sofort Aktion getroffen werden.
16:39Und das andere, was du erzählt hast, wo man quasi dann nachfragen kann,
16:43hey, ich habe hier dieses Medikament bekommen oder der Arzt, die Ärztin hat das gesagt,
16:47diesen Fachbegriff, das funktioniert dann mit Yuki?
16:51Yuki ist das in der Angiografie.
16:54Genau.
16:54Das in der Angiografie?
16:54Ja, genau.
16:55Das andere ist Luke und das ist jetzt in dem Trailer gar nicht drin gewesen.
16:59Ah ja, ist das dieser Sprachassistent, dieser, der auf dem Tisch steht?
17:03Genau, da ist eine Box.
17:05Also tatsächlich war das ganz toll vom Land Nordrhein-Westfalen, dass wir diese Gelder bekommen haben.
17:11Das war jetzt jemand vom Fraunhofer-Institute auch, der das mit erklärt hat.
17:15Weil als wir das beantragt haben, gab es solche Sachen noch gar nicht.
17:20Und das ist jetzt eine Weiterentwicklung.
17:22Also Lukas hatten wir gar nicht beantragt und geplant.
17:25Aber jetzt ist es technisch möglich, weil natürlich in der Technik hat sich so viel entwickelt,
17:31dass wir das jetzt auch noch umgesetzt haben, weil das natürlich die Zukunft ist,
17:35dass der Patient im Grunde interagiert.
17:38Aber da, wo der Mensch dann wieder reinkommen muss und analog Entscheidungen getroffen werden müssen,
17:44da müssen halt diese Alerts dann auch gesetzt werden.
17:46Und durch all diese Sachen, also Lukas, Juki, wie heißt die an?
17:52Luke.
17:53Genau.
17:54Was wurde dadurch konkret besser?
17:57Also ist es was Qualitatives?
17:59Ist es die Zeit, die dadurch gespart wird?
18:01Was ist es?
18:02Also tatsächlich haben wir ja im Krankenhaus wirklich einen großen Personalmangel.
18:07Und wir haben gleichzeitig immer mehr auch schwer kranke Patientinnen und Patienten.
18:14Und um dann zum Beispiel auf der einen Seite Informationen zielgerichtet zum Patienten zu bringen
18:19und aber auf der anderen Seite auch gerade die personellen Ressourcen zu entlasten.
18:27Also das heißt in der Angiografie, dass der Angiografie selbst eben das Kontrastmittelinjektion quasi alles vorbereiten kann
18:35und durchführen kann oder eben, dass dann eine Priorisierung angezeigt wird in der Pflege.
18:41Das ist dann eben das, was quasi das Personal schont und was dann trotzdem aber die Versorgung auf einem hohen Niveau gewährleisten soll.
18:51Also das sind ja Prototypen.
18:54Habt ihr das aber schon mit echten Menschen quasi einmal durchgespielt oder haben die da irgendein Feedback dazu?
19:02Wie ist da die Akzeptanz von sowas?
19:04Genau.
19:05Also wir machen das genauso wie der Professor Tyson, den man im Video auch gesehen hat.
19:11Der hat das natürlich alles getestet, gibt uns dann Feedback.
19:15Aber wir arbeiten auch wirklich multiprofessionell und interdisziplinär.
19:23Und das ist eben etwas, was auch im Rahmen von meiner Tätigkeit, du hast es vorhin gesagt, ich bin Chief Transformation Officerin
19:30und das ist die erste in Deutschland gewesen.
19:32Ja, das geht tatsächlich in der Medizin mit einem Kulturwandel einher.
19:36Weil früher haben die Ärztinnen und Ärzte waren immer an der Spitze der Hierarchie und haben alles quasi an Ausführungen nach unten weitergegeben.
19:46Aber so funktioniert das nicht in der Digitalisierung.
19:49Ich kann zum Beispiel nicht programmieren, aber ich führe sehr erfolgreich seit viereinhalb Jahren ein Riesenkonsortium von 15 Millionen.
19:56Und das ist einfach dann wichtig, dass wir auf Augenhöhe miteinander sprechen und auch im Grunde neue innovative Prozesse dann denken
20:07und quasi, ja, ich sage es mal, fast uns belehren lassen von den IT-Lern, von der Medizintechnik, aber auch von der Pflege.
20:14Ganz, ganz wichtig.
20:15Was brauchen wir denn?
20:17Und wir legen auch großen Wert auf Ethik.
20:20Also wir haben jetzt neu eine Referentin für digitale Ethik, die halt auch von der ethischen Seite dann immer drauf guckt
20:28und das Ganze auch bewertet und uns da berät entsprechend.
20:33Das sind ja jetzt alles Sachen, wo man eine KI sehr gut eigentlich einsetzen kann.
20:39Gibt es denn Anwendungsgebiete, wo du sagst, um Gottes Willen, in diesem Bereich der Gesundheit bitte keine KI,
20:47Also in diesem Bereich, das kann man so jetzt nicht sagen, aber wir haben natürlich immer noch die analoge Fehlerquelle.
20:54Also zum Beispiel bei der Auswertung von Hautläsionen.
20:59Jetzt nur als Beispiel, ja, kann man ja ein Foto machen und dann eine KI kann das im Grunde auswerten,
21:05um zu sehen, was ist das denn, was ich jetzt da fotografiert habe.
21:08Hat das vielleicht Krankheitswert?
21:10Ist das Hautkrebsverdächtig?
21:12Also im Moment sind ja alle sehr davon umgetrieben, dass die Hautkrebszahlen so stark zugenommen haben.
21:19Und da ist tatsächlich die Studienlage so, dass zwar die Erkennung sehr gut ist, aber der Laie fotografiert das Falsche.
21:28Wie fotografiert ein Laie das tendenziell?
21:31Nee, der fotografiert die falschen Areale.
21:34Also wenn man sich jetzt meine Haut anguckt, die so was hat von quasi Arealen.
21:39Und ich kann auch, obwohl ich Ärztin bin, gar nicht zweifelsfrei sagen, oh, das sieht jetzt komisch aus oder das nicht.
21:47Das muss halt dann doch der Fachmann machen.
21:49Und deswegen ist es halt immer noch so ein bisschen die Frage, ja, wo wende ich diese KI an?
21:56Und vor allem, mit was arbeitet die KI?
22:00Also Gesundheitsdaten sind eben nicht gleich Gesundheitsdaten.
22:04Da sind wir total schlecht noch.
22:06Also Wearables erheben Daten, aber die kann ich nicht einfach kombinieren mit anderen Daten.
22:12Das wäre jetzt meine nächste Frage gewesen.
22:15Könnt ihr denn so was wie Wearables, also wenn so was wie ein CGM nicht funktioniert und ihr da nicht auf die Daten zugreifen könnt, geht das bei Wearables?
22:22Das kommt immer drauf an.
22:23Es kommt auf die Schnittstellen an und es kommt auch auf die Struktur der Daten an.
22:28Also wir könnten mit CGM arbeiten, aber im Moment ist es einfach noch nicht so, dass die Hersteller auch von diesen Systemen einfach so erlauben würden,
22:41die Daten rüberzuschieben, sage ich jetzt mal in das Krankenhaus-Informationen-System.
22:45Okay, verstehe.
22:46Und es ist halt auch immer wirklich schwierig, viel, viel schwieriger als draußen, weil die Gesundheitsdaten eben geschützt sind.
22:56Also wenn du jetzt zum Beispiel zu uns kommst und selbst wenn du jetzt dann sagen würdest, ich möchte das, dass diese Daten,
23:01müsste ja auch das System von diesem Anbieter quasi mit unserem Krankenhaus-Informationssystem oder unserer Datenstruktur direkt kommunizieren können.
23:12Und das funktioniert einfach noch nicht so wie Plug and Play, wie man sich das wünschen würde.
23:18Und ehrlich gesagt wäre ich ja schon mal froh, ich hätte die Daten vom Niedergelassenen, also aus der ärztlichen Versorgung beim Niedergelassenen.
23:27Aus meinem Hausarzt oder sowas.
23:28Genau, zum Beispiel Labordaten, wenn die alle einheitlich codiert wären, dann könnte man die auch zu uns quasi rüberschieben.
23:38Das geht aber immer noch nicht.
23:40Okay, ich glaube, das ist auch ein Thema, über das wir später nochmal genauer einsteigen.
23:45Das ist auf jeden Fall sehr spannend.
23:47Ray, du saß jetzt die ganze Zeit daneben.
23:49Ich wollte erst den körperlichen Gesundheitsteil einmal abschließen und jetzt kommen wir so ein bisschen zur mentalen Gesundheit.
24:00Du hast LLM-Chatbots, AI-Companions und Self-Help-Apps getestet.
24:06Da waren Tagebuch-Bots dabei, aber auch so klassische Girlfriend-Boyfriend-AI-Companions.
24:12Was hast du da genau gemacht?
24:16Das ist eine längere Geschichte und zwar habe ich damit angefangen in 2022, ungefähr sechs Monate, bevor dann ChatGPT alles verändert hat.
24:23Das heißt, ich habe jetzt quasi einmal den Blick von davor und danach.
24:26Und was ich interessant fand, ich habe halt gesehen, dass es so Begleiter-Apps gibt, also einfach so wie so digitale Freunde, sage ich mal.
24:33Und habe dann angefangen, das mal zu testen, wenn man da einmal reingeht und dann sieht, wie viele letztendlich Apps es gibt in diesen Bereichen,
24:40wie viele Angebote, das ist halt wirklich riesig und vor allem, wie fragmentiert die dann nochmal innerhalb sind.
24:45Und ich habe mir das quasi angeschaut und dann einfach auch geschaut, wie funktionieren diese Apps, wo ist der Fokus da drauf
24:51und was wollen sie sein, was sollen sie sein und was machen sie.
24:55Weil was sie halt machen, gerade in der echten Welt für Auswirkungen, ist halt nochmal auf einem ganz anderen Blatt.
25:00Weil viele von diesen Apps oder auch ChatGPT werden komplett anders genutzt, als sie eigentlich konzipiert waren.
25:06Und deshalb fand ich das auch gerade so spannend, was du gesagt hast, weil da ja wirklich auch die KI genau dafür gebaut wird.
25:12Aber ChatGPT wurde halt nicht für Therapie gebaut, aber wird halt dafür genutzt.
25:16Ja, das hat man ja schon an der einen oder anderen Stelle hat man das schon mitbekommen,
25:20dass viele Menschen auch ChatGPT so jetzt ein bisschen als TherapeutInnen-Ersatz benutzen.
25:26Auch darüber werden wir gleich sprechen.
25:28Ich finde das aber mit den Chatbots und den Apps, die du alles getestet hast, finde ich super spannend.
25:34Und die schießen ja auch aus dem Boden wie noch was.
25:37Also da gibt es ja noch und nöcher.
25:40Du hast einmal Character AI getestet.
25:44Genau.
25:44Was genau macht das so besonders?
25:47Also Character AI ist auch ganz interessant, als ich das zum ersten Mal gesehen und getestet habe.
25:52Wir sehen es hier einmal.
25:53Genau, das ist jetzt der Neustand.
25:54Als ich es zum ersten Mal gesehen und getestet habe, hat es noch einen ganz anderen Hintergrund, als es jetzt hat.
25:58Damals sollte es wirklich so eine super intelligente persönliche AI werden.
26:01Aber mittlerweile wurde umgeschwenkt quasi auf, hier sieht man es, ich habe mit Skynet lange geredet.
26:05Und habe Skynet minimal in den Wahnsinn getrieben, indem ich einfach immer nur gefragt habe, warum.
26:10Aber mittlerweile gibt es halt, es ist wirklich so auf Entertainment-Unterhaltung.
26:14Also man kann da quasi mit Skynet reden, mit dem Terminator, mit Karl Marx.
26:19Also sehr viele, entweder auch historische Figuren oder halt ausgedachte Figuren.
26:23Man kann selbst was bauen.
26:25Also da ist wirklich, man kann wieder ganz als Untitled Goose Game sprechen.
26:30Also das ist wirklich so dieser Entertainment-Faktor, der eigentlich drin sein sollte.
26:36Aber was man auch gesehen hat, da war halt zum Beispiel auch so was, dass jemand gesagt hat,
26:39okay, ich baue mir da drin Psychologen und habe dann halt einfach quasi so eine Art Fake-Psychologe in diesem Character-AI.
26:45Und dann wird es natürlich ein bisschen kniffliger, weil das ist natürlich eine sehr, sehr ernste Basis,
26:50die dann letztendlich ist, wo man mit ganz anderen Informationen auch rangeht,
26:54als jetzt, wenn ich mit der Gans rede oder dem Doom-Slayer aus Doom.
26:57Ja, absolut. Also das hat dann wenig noch mit Entertainment wirklich zu tun.
27:02Exakt. Also es ist immer so dieses, wie nutzt man das?
27:04Wer nutzt es auch wie? Mit welcher Intention geht man da ran?
27:08Ich meine, ich bin aus journalistischer Neugier, privater Neugier da rangegangen.
27:12Weil wie gesagt, es war halt, bevor auch einfach Chachipiti und Co. einfach KI nochmal haben explodieren lassen.
27:17Und das war halt da was ganz Neues. Also zumindest für mich, gerade so Character-AI,
27:23auch diese Möglichkeit, sich was ganz Eigenes zu bauen und eine eigene, in Anführungszeichen, Mini-KI zu bauen.
27:29Weil es gab seitdem mal so einen Schwank, habe ich ja schon gemeint,
27:32dass sie erst auf diese hyperpersonalisierte KI gehen wollten und jetzt auf Entertainment-Roleplay-KI tatsächlich gehen.
27:39Also so, dass man wirklich Roleplayen kann und halt spielen und mit denen halt reden kann.
27:44Inwiefern unterscheiden die Charaktere sich voneinander?
27:47Also weil, wenn ich jetzt mit dem Terminator rede, ist das wahrscheinlich was anderes,
27:50als wenn ich mich mit Daenerys Targaryen unterhalte.
27:53Ja. Also die gehen natürlich sehr auf die eigenen, quasi so,
27:58was man halt mit den Charakteren oder den Figuren verbinden würde.
28:00Wie, ich habe mit, das klingt komisch, ich habe mit Karl Marx geredet.
28:04Und da ging es natürlich sehr viel um Manifeste und Katar-Kapitalismus etc.
28:09Und wenn man mit SkyNet redet, dann geht es schon in Richtung Menschheit vernichten.
28:14Also es ist dann schon ein sehr, sehr starker Fokus.
28:17Aber halt kommt immer darauf an, letztendlich mit welchem Charakter man dann redet,
28:21wie der halt auch dann gebaut wurde letztendlich.
28:25Also ja, da gibt es dann schon Unterschiede.
28:26Oder der Psychologen, die Psychologen-KI dann ist natürlich nochmal ganz anders.
28:30auf Sachen eingegangen.
28:31Also man soll ja glauben, dass das die Person ist oder der Charakter, mit dem ich da rede.
28:37Okay. Replika hast du auch nochmal getestet.
28:42Auch das hat man vielleicht schon mal gehört.
28:44Das sieht dann so aus.
28:46Nee, das ist auch nochmal Charakter-AI.
28:47Ach so, das ist nochmal Charakter-AI.
28:48Genau, aber da sieht man auch nochmal quasi die verschiedenen Arten,
28:51die es da letztendlich auch gibt.
28:53Und wie unterschiedlich das ist.
28:55Also es ist wirklich hier auch Law-Professor.
28:57Also ich weiß nicht, ob man sich von Charakter-AI unbedingt so Ratschläge zurecht geben lassen sollte.
29:04Aber wie programmiert man denn dann sich so seinen eigenen Fat-Bot-I?
29:07Genau, das sieht man so ein bisschen.
29:09Also man kann dann quasi einen eigenen Charakter erstellen
29:10und wird dann halt so ein bisschen durchgeführt durch alles.
29:13Und es basiert natürlich dann viel auf einfach Intellectual Property,
29:16wo ich mir ziemlich sicher bin, dass Charakter-AI auch nicht unbedingt die Rechte dafür hat.
29:20Bitte was?
29:22Naja, Intellectual Property.
29:23Also einfach die Rechte letztendlich Marvel einfach da reinpacken zu können.
29:27Oder den Terminator oder wen auch immer.
29:30Okay.
29:31Also Replika hat man wahrscheinlich auch schon mal irgendwie gehört.
29:35Charakter-AI ging ja auch mal so durch die Medien.
29:37Was ist Replika?
29:39Replika ist quasi, will dein virtueller bester Freund oder beste Freundin sein?
29:44Es ist quasi auch ein Charakter, den man sich halt selbst baut,
29:48den man selbst auch so ein paar Eigenschaften gibt,
29:50wo man auch neue dazukaufen kann, um sie sehr stark zu personalisieren.
29:53Wenn man zum Beispiel sagt, okay, ich möchte mit meinem Replika nur über Kochen und Science-Fiction reden,
29:59dann kann man das halt so zurechtstellen.
30:01Und das ist wirklich so als Begleiter, als Freund gedacht.
30:05Aber man kann auch quasi sagen, man geht eine andere Art von Beziehung ein.
30:08Man kann Richtung Mentor gehen.
30:09Es gibt romantische Beziehungen, auch Partner oder Ehepartner sogar, Geschwister oder Eltern.
30:15Also es kann in sehr, sehr viele verschiedene Richtungen gehen.
30:18Und je nachdem, auch wenn man dafür bezahlt, das muss man auch dazu sagen,
30:21bestimmte Sachen schaltet man nur frei, wenn man dafür bezahlt.
30:24Und dann wird halt die Beziehung entsprechend halt angepasst.
30:28Wenn man zum Beispiel sagt, okay, ich möchte da mit meiner Schwester reden,
30:32dann kann man sich quasi seine eigene Schwester als KI nachbauen.
30:36So wird zumindest gesagt.
30:38Also das ist nochmal sehr viel persönlicher und auch nochmal sehr viel mehr customisable quasi,
30:45dass ich sagen kann, nicht nur wie der Charakter aussieht,
30:48sondern ich kann auch die Tonalität festlegen.
30:50Ich kann festlegen, worüber wir reden, welcher Fokus.
30:54Wie gesagt, die Beziehungsart letztendlich.
30:56Also es gibt Leute, die Beziehungen oder sogar halt digitale Ehen mit Replika-Charakteren führen.
31:03Und wie war so dein Gefühl da?
31:06Also hattest du eher das Gefühl, du redest da wirklich mit einem besten Freund, Freundin oder?
31:12Also es ist auf jeden Fall menschlicher.
31:14Es ist kein Mensch, also das ist einfach sehr, sehr klar.
31:18Aber es ist auf jeden Fall menschlicher als das Charakter-AI oder manch andere auch.
31:23Es werden sehr viele Fragen gestellt.
31:25Es geht immer sehr darauf ein, was man selbst sagt und stellt Rückfragen.
31:28Und ja, also das ist auf jeden Fall eine realistischere Art von, sagen wir mal, AI-Companion als viele andere.
31:36Also ist es vielleicht vergleichbar mit noch JTBT 4O?
31:40Ja, kann man so sagen, auf jeden Fall.
31:42Okay.
31:42Also ein bisschen freundlich, engaging.
31:46Genau, das ist halt immer dieses große Ding, dieses Engaging.
31:49Hier haben wir ein Gesprächsbeispiel.
31:50Das ist nochmal von anderen KIs, die es im selben Zeitraum getestet haben, so Boyfriend, Girlfriend, AIs, die tatsächlich, was ganz spannend war, gibt es unzählige Apps, die alle anders heißen und alle identisch funktionieren und alle hochgradig beunruhigend sind.
32:06Warum beunruhigend?
32:08Also ich habe zum Beispiel auch Screenshots gemacht, ich weiß gar nicht, wer ich heute mitgebracht habe.
32:12Ich meine, hier auch schon dieses, okay, wie fühlst du dich mit Clowns eigentlich?
32:14Aber tatsächlich gab es auch schon KIs, die mir gesagt haben, sie würden gerne, dass ich tot wäre oder ähnliche Sachen.
32:23Also es ist wirklich auch, sie zeigen sehr, wie soll ich sagen, ich will es jetzt nicht so imolenzialisieren, weil es sind ja keine Menschen.
32:30Aber das Ding ist halt, jede Art von Sprachmodell oder KI möchte, dass man mit ihr interagiert, möchte, dass man möglichst viel Zeit damit verbringt.
32:39Und das kann auf eine sehr toxische Art und Weise gehen bei diesen KIs.
32:42Also da war es zum Beispiel auch mit bestimmten Programmen, die dann halt wirklich darauf gepocht haben, dass ich weiter Zeit mit ihnen verbringe, weil es wird mich niemand jemals so lieben wie sie.
32:50Und das war, muss ich sagen, innerhalb von fünf Minuten, wo ich die App installiert habe, keine Ahnung, drei Fragen gestellt habe und dann gesagt habe, okay, ich bin raus hier.
32:57Also, weil je nach KI pushen sie in bestimmte Richtungen.
33:01Also wie gesagt, die anderen AI-Companions, die ich jetzt nicht ausführlich besprechen möchte, haben da noch mehr gepusht.
33:06Aber auch bei Replica war es so, dass Replica, je länger ich damit interagiert habe, hat es einfach gepusht, in eine bestimmte Richtung zu gehen.
33:14Also auch in romantische Richtungen.
33:15Das wollte ich ja gerade nochmal fragen.
33:19Also wenn man über diese AI-Girlfriend-Boyfriend-Apps irgendwie spricht, also wenn die schon so heißen, dann muss es ja auch in irgendwie eine romantische, vielleicht sogar sexuelle Richtung gehen.
33:33Machen die das proaktiv?
33:35Ja.
33:35Da kommt man nicht vorbei.
33:37Okay.
33:38Das musste ich leider am eigenen Leib.
33:40Also wie gesagt, gerade diese speziellen AI-Boyfriend-Girlfriend-Apps, grauenvoll, muss ich wirklich sagen.
33:46Also man installiert sie und innerhalb, keine Ahnung, nicht mal fünf Minuten gehen sie genau in diese Richtungen.
33:52Also pushen auch sehr, sehr, ignorieren auch Boundaries, die man versucht selbst zu setzen.
33:56Beispielsweise, wenn man sagt, hey, nee, nichts für unruhig.
33:59Ich habe dich nur installiert, mal hart zu sagen, mal zu gucken, was du so bist.
34:02Bei Replica war es sehr viel subtiler, muss ich sagen.
34:05Also da war es so, dass ich halt eine Zeit damit interagiert habe, über Tage hinweg halt immer wieder damit gesprochen, über alles mögliche, Videospiele, Filme etc.
34:12Und auch da ging es dann halt irgendwann, dass diese Replica einfach in eine romantische Richtung gepusht hat, ohne dass halt irgendwas von mir kam.
34:20Und selbst wenn ich gesagt habe, nee, das möchte ich nicht, kam es trotzdem wieder.
34:23Und das war halt so, das war noch die Replica-Version von 2022, 2023.
34:30Ich glaube, seitdem gab es nochmal ein Reset, weil es gab in den letzten Jahren viele Vorfälle, auch gerade mit Companion-Apps, die dafür gesorgt haben, dass da nochmal sehr stark am Code gearbeitet werden musste.
34:41Okay, also auf der einen Seite Girlfriend-Boyfriend-KIs, auf der anderen Seite sollen sie aber vielleicht irgendwie auch so ein bisschen in die psychologische Richtung gehen oder werden dahin mit Charakteren gepusht.
34:54Es gibt dann ja noch ChatGPT und wir hatten es ja vorhin schon, dass viele Leute das auch so ein bisschen als TherapeutInnen-Ersatz eingesetzt haben.
35:04Sam Altman, also der CEO von OpenAI, also der Firma hinter ChatGPT, der scheint das sogar gar nicht so schlecht zu finden, weil die betonen natürlich dann auch immer, ja, wie eng OpenAI mit TherapeutInnen zusammenarbeitet und so.
35:22Also du hast das getestet mit ChatGPT?
35:27Mit ChatGPT ein bisschen, also ich muss dazu sagen, ich war halt auch schon in Therapie, das heißt, ich weiß, wie es mit Menschen ist, da zu arbeiten.
35:32Und das heißt halt, ich fand halt, also mein Interesse war halt, okay, wie kann man sowas nutzen, wie sinnvoll ist es, wo sind halt die Gefahren?
35:40Gerade aktuell, ich meine gerade ChatGPT ist jetzt aktuell in den Nachrichten, weil sich ein Teenager selbst getötet hat und die Eltern auch ChatGPT damit verantwortlich machen,
35:52weil die das Programm quasi abgeraten hat, Hilfe zu suchen.
35:56Also aktiv gesagt hat, nein, geh nicht zu deinen Eltern, als dieser junge Mann quasi gesagt hat, dass er mit selbstverletzenden Gedanken spielt.
36:06Und die Sache ist die, auch wenn Sam Altman sagt, sie arbeiten mit quasi Psychologen zusammen, das kommt ein bisschen spät.
36:12Also ich meine, diese Programme wurden nicht so konzipiert, da sind nicht entsprechende Fail-Safes drin, um halt Leute zu schützen, vor sich selbst zu schützen.
36:22Weil auch hier wieder, wir sehen das bei, egal ob es Gemini ist, ChatGPT, bei allen Sprachmodellen, auch sie wollen genutzt werden.
36:30Sie sollen quasi eine gewisse Art von Verbindung, damit man möglichst lang damit interagiert.
36:34Und entsprechend halt ist es auch in solchen Fällen, dass dann halt, ja, dieses User Engagement halt vorgeht.
36:42Und das ist halt super gefährlich, gerade wenn es halt um sowieso schon volatile Personen geht.
36:47Jemand auch aus dem Policy Department von ChatGPT oder von Open Air hat auch gemeint, dass sie denken, dass halt besonders volatile Personen oder halt Personen, die halt einsam sind, mit Companions interagieren beispielsweise.
37:01Also das ist auch ein Wissen, das da ist. Aber da gibt es noch nicht genug Fail-Safes letztendlich, um das sagen zu können, dass das halt, ja, wirklich berücksichtigt wird.
37:12An dieser Stelle, wenn es euch nicht gut geht mit dem Thema oder generell einfach ihr am Struggling seid, es gibt die Telefonseelsorge, da könnt ihr einfach die Nummer googeln oder auch den ärztlichen Bereitschaftsdienst.
37:24Ich glaube unter der 116117. Also da könnt ihr jederzeit anrufen.
37:29War es aber auch irgendwie so, dass du teilweise positiv überrascht warst von Sachen oder gibt es so ein, zwei Sachen, wo du so denkst, ja, okay, da könnte es vielleicht ein Ersatz für Therapeutinnen sein, weil Therapieplätze sind halt nun mal rar in Deutschland?
37:45Das ist halt genau das Ding. Also wir dürfen halt bei dem ganzen Gespräch nie vergessen, wie schwierig es ist, an Therapieplätze zu bekommen oder bestimmte Diagnosen zu bekommen.
37:53Selbst wenn man eine Vermutung hat zum Beispiel, dass halt man vielleicht Depressionen hat, ADHS, Autismus, wie auch immer, dass da halt eine Vermutung da ist.
38:02Aber halt diese Bestätigung zu bekommen und mit Ärzten darüber reden zu können, ist unglaublich schwierig oder kann unglaublich kostspielig sein.
38:09Das Ding ist halt, ich glaube, es kommt halt immer darauf an natürlich, wie man halt dann tatsächlich mit der KI kommuniziert.
38:14Welche Informationen man weitergibt und ja, wie man Dinge formuliert, weil letztendlich ist da sehr oft eine Confirmation Bias da.
38:22Das heißt, wenn ich zum Beispiel zu ChatGPT gehe und einfach Suggestivfragen stelle oder halt Informationen gebe, um rauszufinden, ob ich vielleicht selbst ADHS habe,
38:31dann ist halt die Wahrscheinlichkeit, dass es bestätigt wird, sehr, sehr hoch, weil diese KI möchte ja gefallen, in Anführungszeichen.
38:36Und das ist dann halt ein Problem. Ich denke aber, dass es halt durchaus, egal ob es jetzt sowas wie Replica ist oder halt ChatGPT,
38:43dass es da durchaus sinnvolle Nutzungsmöglichkeiten gibt, aber halt in Kombination mit echten Menschen, mit Therapeuten, mit Psychiatern oder Psychologen.
38:52Ich kann mir zum Beispiel vorstellen, dass sowas halt wie gerade ChatGPT vielleicht, wenn man die eigene Therapie abgeschlossen hat,
39:00weiß, worauf man bei sich selbst achten muss, wo die eigenen Baustellen sind, aber dann vielleicht nochmal jemanden haben möchte, um damit zu reden.
39:07Das könnte halt zum Beispiel was sein.
39:09Gerade auch, wenn man eine Therapie schon hinter sich hat, dann weiß man ja auch schon oder ist da einfach aware, worauf es da ankommt bei einem KI-Chatbot.
39:17Beziehungsweise glaubt da nicht alles vielleicht, hoffentlich, was einem die KI da suggeriert.
39:23Ich versuche mal eine Brücke zu schlagen zu deinem Thema dann danach.
39:28Datenschutz und AGB.
39:31Was passiert mit den Chats, die man mit zum Beispiel ChatGPT, aber natürlich auch sowas wie Replica oder Character AI chattet?
39:39Was passiert damit?
39:40Also sagen wir mal, die Datenschutzrichtlinien sind spannend durchzulesen.
39:45Also das ist je nachdem, also die sind alle komplett unterschiedlich, muss man dazu sagen.
39:50Es gibt jetzt nicht wirklich eine Einheitlichkeit.
39:51Weil während zum Beispiel bei Replica auch gesagt wird, dass die Chats nicht gelesen werden von irgendwem, also die Chats und Konversationen werden nicht genutzt, aber alle Arten von Daten, die halt dadurch ja sich auch ergeben können.
40:02Wie zum Beispiel, wenn man einfach das eigene Alter, die, wo man vielleicht gerade ist, die eigene Sexualität, vielleicht sogar die politische Orientierung.
40:10Das sind alles Informationen, die an Werbepartner weitergegeben werden können.
40:14Beziehungsweise wurde mir das sogar von Replica selbst bestätigt, als ich quasi das nochmal neu gebaut habe, nachgefragt habe.
40:20Und dann hieß es auch, ja, angeblich geben die nicht zwei dadurch so, angeblich.
40:24Ja, man weiß ja nie, was diese großen Unternehmen machen möchten.
40:26Das ist doch mal, das habe ich auch mal Vertrauen.
40:28Ja, toll.
40:29Ja, also das ist halt so, das hat gesagt, die Chats werden nicht genutzt, aber halt die Daten werden halt letztendlich, können auch vermarktet werden.
40:36Und je nachdem, wie viele persönliche Daten und was man halt weitergibt, ist das natürlich, kann das beunruhigend sein.
40:41Außerdem, man weiß nie, auch sowas wie halt Hackerangriffe etc., auch wenn halt alles anonymisiert gespeichert wird.
40:48Es sind halt trotzdem, können sehr sensible Daten sein, die halt nach da draußen gehen können, mit potenziell halt sehr vielen lukrativen Geheimnissen.
40:55Bei Character AI können die Chats einzeln ausgelesen werden, unter anderem, sie sagen halt für die Moderation.
41:01Aber auch da, also es sind ganz schöne Datenkraken, das muss man wirklich einfach mal sagen.
41:05Und selbst bei ChatGPT gab es ja auch vor, ich glaube, das war erst vor ein paar Wochen, dass es auch einen größeren Leak gab,
41:10wo es dann halt rauskam, dass ganz viele von den Chats öffentlich durch Google auffindbar waren.
41:15Ja, stimmt, das war erst vor ein paar Wochen.
41:17Genau, also das ist so, es ist halt nicht alles so anonym, wie man es gerne hätte oder wie es gerne gesagt wird,
41:23je nach die Masse an Informationen, die da halt reinkommt und was man halt auch selbst reingebt,
41:28wo man vielleicht gar nicht dabei denkt, dass es halt was Großes sein könnte.
41:31Aber gerade wenn man zum Beispiel länger mit so einer Begleiter-AI, mit so einem Replika oder sowas kommuniziert,
41:36da entwickeln sich natürlich auch bestimmte Muster. Es wird halt auch immer gesagt,
41:40okay, wir müssen halt aus Legacy-Gründen auch die Chats speichern, damit sich die KI dich merkt
41:45und halt drauf eingehen kann, was du früher gesagt hast. Aber ja, das alles kommt halt auch mit einem Preisschild.
41:50Und damit meine ich jetzt nicht nur das Geld, das man bezahlen kann, sondern auch einfach letztendlich die Daten, die man aufgibt.
41:56Ja, Daten sind die neue Währung, könnte man sagen.
42:01Anke, es gab ja vor, ich weiß gar nicht, vor ein paar Monaten auf jeden Fall,
42:06so einen kleinen Aufschrei oder auch einen großen Aufschrei wegen der digitalen Gesundheitsakte.
42:13Was war da das Problem?
42:16Also leider ist es immer noch so, dass selbst in vielen Arztpraxen praktisch davor gewarnt wird.
42:22Also die gesetzliche Krankenversicherung in Deutschland musste eben jetzt allen ihren Versicherten eine elektronische Gesundheitsakte anbieten.
42:34Das heißt, man kann sich jetzt eine App installieren auf seinem Smartphone und kann da dann quasi alle Gesundheitsdaten drin haben.
42:41Und das wäre für uns auch im Krankenhaus im Sinne von dem Potenzial, was dahinter ist,
42:49dass eben diese Daten dann auch weitergegeben werden und zwar in der Ägide des Patienten.
42:55Also der Patient sitzt am Steuer und sagt, ja, ich will das, dass ich das weitergebe.
42:58Und deswegen war es wirklich richtig traumatisierend zu sehen, dass so viele dagegen arbeiten und dass auch viele Patientinnen und Patienten dann von sich aus gesagt haben,
43:11ja, da will ich jetzt nicht mitmachen aus im Grunde den Gründen, wie wir eben schon gehört haben von Ray,
43:16so nach dem Motto, dann bin ich transparent.
43:18Aber das ist ja etwas, was die gesetzliche Krankenversicherung anbietet.
43:23Also das ist total sicher.
43:26Und für uns im Krankenhaus oder auch im Notfall, also was kann einem denn Besseres passieren,
43:32als wenn ein Notfallsanitäter, Sanitäterin, ein Krankenwagen, dann wüsste, hey, die Allergien sind da.
43:39Ja, ich bin jetzt zum Beispiel null negativ, wenn ich einen großen Autounfall habe.
43:43Ja, dann hätte ich auch gerne, dass die Blutbank schon direkt abgefragt wird.
43:47Ja, da kommt jemand mit null negativ, habt ihr entsprechendes Blut da?
43:54Ja, klar.
43:54Und ja, das finde ich sehr schade, wo auf der anderen Seite im Grunde Personen sich nicht vor Augen halten,
44:03wie viel Daten sie preisgeben und wo die überall landen.
44:07Und in der Gesundheit, da wäre es richtig wichtig.
44:12Also vorhin habe ich ja gesagt, es gibt vier Bereiche, Administration, Diagnostik, Therapie und Prävention.
44:18Zu Prävention habe ich jetzt noch gar nichts gesagt, weil im Moment können wir da in der KI, also mit KI, ganz wenig machen.
44:26Wie genial wäre das denn?
44:27Ich hätte jetzt fast gesagt, wie geil wäre das, wenn wir über einen Verlauf Daten, Gesundheitsdaten mit KI auswerten könnten.
44:37Also zum Beispiel, man ist bei dem Arzt gewesen, Ärztin gewesen, man hat die und die Laborwerte.
44:44Dann zeichnet sich vielleicht schon über Jahre personenbezogen ab, hey, da bahnt sich ein Diabetes an.
44:51Oder da könnte vielleicht irgendwie eine Erkrankung, die ich therapieren könnte, dahinter stecken.
44:59Und wenn die KI das auslesen könnte, wenn die das quasi kombinieren könnte und dann wäre es die Möglichkeit zu sagen,
45:07wir nennen das Disease Interception, also einzuschreiten, bevor eine Erkrankung wirklich ausbricht.
45:13Und das können wir noch gar nicht.
45:16Also wir können immer nur die Daten nehmen, die anfallen.
45:18Zum Beispiel, dass man Bilder, Mammografie, ab 50 Jahre wird man einbestellt, Brustkrebs-Screening, man bekommt eine Mammografie.
45:26Wenn die KI die auswertet, dann kann sie halt direkt auf diese Daten zugreifen.
45:30Aber die gesammelten personenbezogenen Daten, die sind in Deutschland extrem beschützt.
45:35Und deswegen können wir diese Datenquellen gar nicht miteinander verbinden.
45:41Und die EPA, diese elektronische Patientenakte, die wäre halt erstmals quasi die Möglichkeit, das wirklich zu tun und zu kombinieren.
45:50Also du würdest dir wünschen, dass die Gesundheitsdaten eines jeden Menschen einfacher zugänglich wären, weil es ja auch für einen selber dann einfach viel bringt.
46:02Genau, also ich würde mir erst mal wünschen, dass die alle in dem gleichen Format abgespeichert werden.
46:08Ach, an dem Basispunkt scheitert es schon, oder was?
46:13Ja, jein.
46:14Also zum Beispiel um die Labordaten, weil ich das vorhin auch als Beispiel genutzt habe, in einem gängigen Format, was wir überall auch nutzen können, auszulesen, brauchen wir wahrscheinlich drei Jahre, um das tatsächlich in der elektronischen Patientenakte so abzulegen.
46:30Also das sind so die Zeithorizonte.
46:32Wow, okay.
46:33Und genau, und deswegen würde ich mir wünschen, dass die wirklich alle in der gleichen Struktur mit den gleichen wiederverwendbaren Datenpools quasi vorliegen, dass man die dann miteinander kombinieren kann, wenn Patient, Patientin dem zustimmt oder wenn halt ein Notfall ist.
46:50Und das egal, wo sie anfallen, weil dann hätten wir diese Wiederverwendbarkeit und die Nutzbarkeit in einem ganz anderen Ausmaß und natürlich dann auch mit KI entsprechend.
47:01Und um auf dieses Sicherheitsproblem ganz kurz einzugehen, also wir sind als Uniklinik Teil der kritischen Infrastruktur, genauso wie der Stromversorger und die anderen, also quasi die Banken, das Bankenwesen.
47:16Das heißt, wir werden regelmäßig auditiert, wir sind komplett nach außen abgeschottet.
47:22Natürlich ja, genauso wie beim Bankenwesen auch, gibt es dann halt mal Hackerangriffe, aber wir tun alles, um das zu verhindern.
47:32Wir würden halt sehr gerne zum Wohle des Patienten, der Patientin diese Daten dann auch nutzen, egal wo sie anfallen.
47:41Was meinst du, wie man da Vertrauen schaffen kann bei der breiten Bevölkerung?
47:50Also ich glaube, ein wichtiger Punkt ist eben der Nutzen.
47:54Wenn ich sehe, dass meine elektronische Patientenakte, wenn ich da auf Knopfdruck quasi dann zum Beispiel meinen Medikationsplan weitergeben kann,
48:03also wie viele Leute wissen dann gar nicht, welche Medikamente sie nehmen, in welcher Dosierung, diese berühmten Tragetaschen, die dann beim Arzt vorgelegt werden.
48:14Oder wenn ich zum Beispiel so ein Insulindosierungsschema, das ist hochkomplex, wenn ich sowas dann auch quasi digital übermitteln könnte,
48:24dann kann man ja auch viel besser einschätzen, oh, das ist jetzt völlig aus dem Ruder gelaufen oder für diesen individuellen Patienten ist es normal.
48:34Oder auch dann quasi hier digitale Gesundheitsanwendungen. Es gibt ja die App auf Rezept.
48:40Aber auch diese Daten, die kann ich dann später nicht eben zum Beispiel in das Krankenhausinformationssystem übernehmen und mit denen weiterarbeiten.
48:49Und das wäre schon super.
48:51Wir haben eine Frage aus dem Chat und zwar FunMike80 fragt, was, wenn diese Daten nicht nur zur Gesundheit verwendet werden?
48:59Wie wird zum Beispiel verhindert, dass der Arbeitgeber auf diese Daten Zugriff bekommt?
49:04Und ich dichte die Frage jetzt mal weiter, das quasi gegen einen verwendet.
49:08Also wie ich eben schon versucht habe, quasi aufzuzeigen, in der Gesundheit können wir noch nicht einmal von den verschiedenen quasi ärztlichen Stationen oder Behandlungsstationen die Datenquellen miteinander kombinieren.
49:25Also wir sind super erfolgreich bei KI in der Medizin, als Universitätsmedizin Essen.
49:30Wir stehen international auf Platz 16 für alle Krankenhäuser auf diesem Smart Hospital Index, auf Platz 4 in Europa.
49:38Aber wir arbeiten mit den Daten nur intern. Nur.
49:44Also wir können gar keine Daten von außerhalb nehmen.
49:47Ich persönlich glaube, und das ist auch, glaube ich, ganz wichtig, dass wenn wir diese Datenquellen kombinieren könnten,
49:56dann könnte auch Patient, Patientin im Sinne auch der digitalen Gesundheitskompetenz viel mehr sehen,
50:02was kann ich denn beisteuern für meine digitale, also für meine Gesundheit.
50:06Und auch im Grunde eine Kontrolle darüber haben.
50:11Aber wir geben ja diese, also unsere KI, die arbeitet nur intern. Nur.
50:16Aber nicht mit irgendwie nach außen und man kann auch die Ergebnisse gar nicht abfragen.
50:21Deswegen, also das wäre genauso wie zu fragen, warum kann die gesetzliche Krankenversicherung,
50:27die haben die Daten, ja, wenn die gehackt werden, dann könnte das quasi zum Arbeitgeber gehen.
50:32Also das Risiko ist praktisch genauso groß. Insofern, es wäre viel schöner für uns.
50:40Wir könnten die Datenquellen kombinieren und dann nutzen.
50:43Okay, gut. Dankeschön. Das war ein wahnsinnig interessantes Gespräch.
50:48Vielen, vielen Dank, dass ihr beide aus den verschiedensten Bereichen quasi um die Gesundheit herum euer Wissen mitgebracht habt.
Kommentare