00:00Also wir bauen ja wirklich seit Jahrtausenden Werkzeuge, die uns irgendwie die physische Arbeit abnehmen.
00:06Weißt du, den Hammer für den Nagel, das Auto für die lange Strecke.
00:09Da war die Welt noch recht übersichtlich.
00:12Ja, absolut. Eine sehr greifbare Welt.
00:15Genau. Aber was passiert in dem Moment, in dem wir anfangen, unsere moralische und spirituelle Führung an Algorithmen auszulagern?
00:24Da sind wir mitten in unserer heutigen Mission.
00:27Okay, lass uns das mal entpacken.
00:29Sehr gerne. Das ist ja der Kernkonflikt, der uns aktuell alle betrifft, völlig unabhängig vom eigenen Glauben.
00:35Richtig. Wir nehmen uns heute das Buch Künstliche Intelligenz und islamische Verantwortung von Dr. Jamil Shahinus vor.
00:42Und das Ziel ist echt herauszufinden, wie uns diese jahrhundertealte religiöse Ethik helfen kann, diesen wahnsinnig rasanten Aufstieg der Algorithmen
00:52zu meistern.
00:52Weil wir eben einer Technologie, die ja eigentlich nur auf reiner Statistik basiert, zunehmend Aufgaben übergeben.
00:59Aufgaben, die tiefgreifende menschliche Urteilskraft erfordern. Und Shahinus zwingt uns da wirklich, diese Mechanismen mal zu sezieren.
01:06Ich versuche das mal für mich, also für dich als Hörer, greifbar zu machen. Wenn wir über KI sprechen, reden
01:13wir im Grunde über so einen brillanten, aber völlig isolierten Archivar.
01:17Ein gutes Bild, ja.
01:18Dieser Archivar sitzt tief im Keller, hat wirklich jede Schrift der Menschheitsgeschichte gelesen und kann in Millisekunden querverbeise ziehen. Er
01:26kann dir die exakte chemische Zusammensetzung einer Träne aufschreiben. Aber er hat in seinem ganzen Leben noch nie selbst geweint.
01:34Wahnsinn, ja. Das trifft den philosophischen Unterschied, den das Buch der herausarbeitet, ziemlich perfekt. Die islamische Tradition unterscheidet hier nämlich
01:42sehr präzise zwischen Irm und Hikma.
01:44Okay, was genau bedeuten die beiden Begriffe?
01:47Also Irm ist sozusagen das reine Faktenwissen, die schiere Ansammlung von Daten. Dein Archivar im Keller besitzt nahezu unendliches Irm.
01:56Eine KI kann riesige Textmengen scannen und das statistisch wahrscheinlichste nächste Wort berechnen.
02:02Verstehe. Und Hikma?
02:04Hikma ist die wahre Weisheit. Und die verlangt eben viel mehr als nur Mustererkennung. Sie erfordert ein tiefes, kontextuelles, begreifendes
02:13Sinns hinter den Dingen.
02:15Okay, aber was bedeutet das alles für tiefgründige menschliche Ratschläge? Wenn jemand jetzt eine theologische Frage an eine KI stellt,
02:24sagen wir, er bittet um eine Fatwa, also so ein Rechtsgutachten.
02:27Dann bekommt er zwar eine Antwort, die formal total korrekt aussieht, aber der einfach das Fundament fehlt. Der Autor macht
02:34das am Begriff des Kalb, des Herzens, und der Nia, der inneren Absicht, fest.
02:39Ah, okay. Also die KI hat kein Herz?
02:44Genau. Wenn ein Mensch einen Gelehrten um Rat fragt, liest dieser Mensch ja zwischen den Zeilen. Er spült Empathie, er
02:52erkennt sofort, ob der Fragesteller vielleicht in einer tiefen Lebenskrise steckt.
02:57Oder ob er vielleicht einfach nur theoretisch diskutieren will.
03:00Exakt. Die KI hat aber keine Nia. Sie hat nicht die Absicht zu helfen, zu trösten oder irgendwie moralisch zu
03:08handeln. Sie generiert halt einfach nur sprachliche Wahrscheinlichkeiten, keine echten Wahrheiten.
03:13Hier wird es wirklich interessant. Weil wenn die Maschine selbst eine absolute ethische Leerstelle ist, so ein Vakuum ohne eigene
03:22Absicht, dann fällt die gesamte Verantwortung auf die Menschen zurück.
03:26Auf die Programmierer und Nutzer? Ganz genau.
03:28Aber reichen da nicht einfach Asimovs Robotergesetze aus, um uns zu schützen? Also, dass ein Roboter keinen Menschen verletzen darf
03:35und so weiter?
03:35Sascha Inouz argumentiert da vehement dagegen. Er zitiert im Buch eine sehr bekannte Überlieferung des Propheten, die lautet, jeder von
03:43euch ist ein Hirte und jeder ist verantwortlich für seine Herde.
03:47Ein Hirte, okay. Das heißt bezogen auf die Tech-Welt?
03:51Das bedeutet, dass die Entwickler und die Tech-Konzerne die volle ethische und spirituelle Mitverantwortung tragen.
03:56Wenn eine KI diskriminiert oder gesellschaftlichen Schaden anrichtet, sind sie verantwortlich.
04:05Das klingt in der Theorie ja extrem nobel. Aber wie soll das in der echten Welt funktionieren?
04:10Sollen die Tech-Giganten im Silicon Valley jetzt für jeden Algorithmus theologische Berater einstellen?
04:15Es klingt utopisch, aber das Buch fordert hier wirklich zwingend menschliche Kontrollinstanzen.
04:20Scheinos schlägt sogenannte Shura-Boards vor.
04:23Shura-Boards? Was kann man sich darunter vorstellen?
04:26Shura bedeutet traditionell so viel wie gegenseitige Beratung oder Beratungsgremium.
04:31Wir reden hier von Ethikkommissionen aus Programmierern, Ethikern und Theologen.
04:36Die prüfen schon während der Entwicklung, ob ein System die menschliche Würde respektiert.
04:41Also keine reine Formsache am Ende?
04:43Nee, absolut nicht. Es muss immer eine menschliche Letztverantwortung geben.
04:48Die Maschine darf niemals das finale Wort haben.
04:50Aber wir wissen ja beide, wie die Realität oft aussieht. Diese Gremien gibt es oft gar nicht.
04:56Oder sie werden bei der nächsten Sparmaßnahme einfach wegrationalisiert.
04:59Und genau da betrifft dich das als Hörer.
05:02Richtig. Das ist der entscheidende Punkt.
05:05Weil wir alle Gefahr laufen, aus reiner Bequemlichkeit unser kritisches Denken an diesen brillanten Archivar auszulagern.
05:12Wir vertrauen blind diesen generierten Inhalten.
05:15Diese Bequemlichkeit ist ja auch wahnsinnig verführerisch.
05:18Ein perfekt formulierter Text wirkt einfach autoritär.
05:22Wir schreiben dem Output der KI eine Objektivität zu, die sie gar nicht hat.
05:26Und das bringt mich zu einem letzten, sehr provokanten Schlussgedanken aus dem Buch, den ich dir unbedingt mitgeben will.
05:33Aber um das ganz klar einzuordnen, es geht hier bei Null um einen äußeren Kampf.
05:39Der eigentliche Wortsinn beschreibt nämlich die innere Anstrengung, den ethischen Widerstand gegen die eigene Bequemlichkeit.
05:46Also der Kampf gegen die intellektuelle Faulheit im Netz?
05:49Ganz genau. Es ist die tägliche Pflicht, im Internet jede Information, jeden Tweet und jedes Bild kritisch zu prüfen, bevor
05:57man es teilt oder glaubt.
05:59Der Mensch muss der Wächter der Wahrheit bleiben. Überlass das Bewerten nicht der Maschine.
06:05Denk da mal drüber nach, wenn du das nächste Mal eine verblüffend gute KI-Antwort lest.
Kommentare