Zum Player springenZum Hauptinhalt springen
DER DIGITALE TSUNAMI (ARTE Dokumentation)
DER DIGITALE TSUNAMI - die Macht der KI und der Algorithmen

Wie verändert sich unsere Welt, wenn Künstliche Intelligenz (KI) über Leben und Tod entscheidet, wenn Maschinen uns beraten und Kinder mit Bildschirmen aufwachsen?

Der Dokumentarfilm beleuchtet die umfassenden Umbrüche der digitalen Revolution – mit all ihren gesellschaftlichen, psychologischen und politischen Konsequenzen. Heute bestimmen Algorithmen, was wir sehen und glauben, während große Technologiekonzerne (Big Tech) mit ihren ökonomischen Interessen die Macht über die Informationen konzentrieren.

"Der digitale Tsunami" zeigt, dass wir längst nicht mehr die Kontrolle über die von uns geschaffene Technologie haben. Die Doku beleuchtet die psychologischen Folgen des übermäßigen Social-Media-Konsums (Sucht, Angst, Depressionen), die politischen Gefahren durch Desinformation und Deepfakes in Wahlkämpfen sowie die realen Bedrohungen durch autonome Waffensysteme und staatliche Überwachung.

Mit Stimmen führender KI-Experten wie Yoshua Bengio und der Medientheoretikerin Sherry Turkle warnt der Film vor dem Kontrollverlust, der Abhängigkeit von der digitalen Infrastruktur und der unaufhaltsamen Beschleunigung des technologischen Fortschritts. Der Film stellt die zentrale und dringliche Frage: Beherrschen wir die Technologie – oder sie uns?


Der digitale Tsunami,
ARTE Dokumentation,
Künstliche Intelligenz,
KI,
Big Tech,
Digitale Revolution,
Algorithmen,
Kontrollverlust,
Gesellschaftlicher Wandel,
Technologie,
Digitale Ethik,
Soziale Medien,
Desinformation,
Deepfakes,
Überwachung,
Autonome Waffen,
Psychologische Folgen,
Datenschutz,
Datenmacht,
Informationstechnologie,
Yoshua Bengio,
Sherry Turkle,
Zukunft der Arbeit,
Digitalisierung,
Tech-Giganten,
#DerDigitaleTsunami,
#ARD_ARTE,
#KünstlicheIntelligenz,
#KI,
#BigTech,
#DigitaleRevolution,
#Algorithmen,
#Kontrollverlust,
#Desinformation,
#Deepfakes,
#SozialeMedien,
#Digitalisierung,
#Technologieethik,
#Datenschutz,
#Datenmacht,
#Zukunft,
#Gesellschaft,
#Überwachung,
#AutonomeWaffen,
#Psychologie,
#Medienkompetenz,
#Technologiefolgen,
#Wissenschaft,
#Dokumentation,
#ArteDoku,
#YoshuaBengio,
#SherryTurkle,
#DigitalerWandel,
#KIRevolution,
#Infokrieg,
#TechGiganten,
#DigitaleSucht,
#Ethik,
#ZukunftDerArbeit,

Kategorie

📚
Lernen
Transkript
00:00:00Von Marshall McLuhan
00:00:27stammt die Vorstellung von den Medien als einer Art Ökosystem.
00:00:30Was Shakespeare für das Drama bedeutete,
00:00:33war McLuhan für die Medienforschung.
00:00:57Die Demokratie steckt in einer Krise.
00:01:10Und was ist die Voraussetzung für Demokratie?
00:01:12Das Gespräch.
00:01:14Die Fähigkeit, dem Andersdenkenden zuzuhören.
00:01:16Und wir sprechen mit Maschinen,
00:01:17die uns diese Fähigkeit nicht lehren.
00:01:19Das Medium zeichnet sich heute
00:01:22durch algorithmische, individualisierte Ansprache der User aus,
00:01:26einen hohen Grad an Überwachung und Kommerzialisierung.
00:01:30Sucht ist gewollt.
00:01:35Dringende neue Warnung
00:01:37vor den möglichen Risiken künstlicher Intelligenz.
00:01:40Top-Experten und Manager der Branche
00:01:41sprechen von einem Auslöschungsrisiko,
00:01:43KI mit Pandemien und Atomkrieg gleichsetzend.
00:01:46Es gibt sehr starke Bemühungen,
00:01:53die Entwicklung von KI zu beschleunigen
00:01:55und die Risiken nicht zu beachten.
00:01:58Denn wer sie zuerst nutzen kann,
00:01:59hat einen gewaltigen wirtschaftlichen Vorteil.
00:02:02Unser Wirtschaftssystem drängt Zug um Zug in diese Richtung.
00:02:05Doch die Risiken sind eine Destabilisierung der Demokratie
00:02:09und eine umfassende Bedrohung der nationalen Sicherheit
00:02:12und unserer ganzen Existenz.
00:02:16Im Jahr 1994 war das Internet eine völlig neue Idee,
00:02:39die wie Science Fiction klang.
00:02:41Stellen Sie sich eine Welt vor,
00:02:45in der jedes geschriebene Wort,
00:02:46jedes gemalte Bild,
00:02:48jeder gedrehte Film sofort bei Ihnen zu Hause anschaubar wäre,
00:02:51über eine Informationsschnellstraße,
00:02:53ein digitales Hochleistungsnetzwerk der Kommunikation.
00:02:56Das würde bedeuten,
00:02:58Sie könnten Ihr Zuhause in ein riesiges,
00:03:00interaktives Unterhaltungszentrum verwandeln,
00:03:02inklusive Aktienkursen und Zugang zum Einkaufszentrum.
00:03:05Das klingt nahezu unvorstellbar,
00:03:08läuft aber am Ende auf kommunizierende Computer hinaus.
00:03:11Das passiert auch schon im sogenannten Internet.
00:03:15Jeder Mensch mit Computer und Modem
00:03:17zum Anschließen ans Telefon kann teilnehmen.
00:03:19In den 30 Jahren seit diesem Bericht
00:03:23hat das Internet unser Leben auf dramatische Weise verändert.
00:03:26Die meisten von uns können sich ein Leben ohne Internet nicht mehr vorstellen.
00:03:30Doch in letzter Zeit hören wir mehr und mehr von seiner Kehrseite,
00:03:33von unerwarteten Folgen wie Social-Media-Sucht,
00:03:35unternehmerischer und staatlicher Überwachung
00:03:37und großen Medienmonopolen.
00:03:39Untertitelung im Auftrag des ZDF,
00:04:09Marshall McLuhan, Professor für englische Literatur
00:04:27an der Universität von Toronto,
00:04:28erlangte in den 60er Jahren unerwartete Berühmtheit.
00:04:32Doch heute haben die meisten unter 50-Jährigen nie von ihm gehört,
00:04:35obwohl er viele der Probleme der digitalen Revolution,
00:04:37die uns heute beschäftigen, vorhergesagt hat.
00:04:47Das digitale Wirtschaftssystem,
00:04:52in das wir uns schlafwanderisch begeben haben
00:04:54und das uns nun lückenlos umgibt,
00:04:56gleicht in seinen Grundzügen einem digitalen Tsunami.
00:04:59Wir erleben einen konstanten Strom von Informationen aus mannigfachen Quellen.
00:05:06Jeder hat sein eigenes Megafon.
00:05:09Jeder ist sein eigener Rundfunksender.
00:05:12Allein die überwältigende Masse an Informationen sollte ausreichen,
00:05:16um ein gewisses Maß an Verwirrung und Müdigkeit hervorzurufen.
00:05:20Und all die Algorithmen der Plattformen, die bestimmte Inhalte propagieren,
00:05:26um unsere Emotionen zu wecken und uns bei der Stange zu halten,
00:05:30machen es nur noch schlimmer.
00:05:31Ich liebe den Times Square.
00:05:44Er ist irrwitzig, völlig drüber und total ehrlich.
00:05:48Seine Botschaft?
00:05:50Hier blüht der Kommerz.
00:05:51Kauft, kauft, konsumiert.
00:05:53Doch wer will schon am Times Square leben?
00:05:59Das wäre unzumutbar.
00:06:02Wir beobachten heute, dass die sozialen Medien mit all den radikalen Kaufanreizen,
00:06:07der ganzen Kommerzialisierung in die intimsten Bereiche unserer Leben vordringen.
00:06:15Doch wer will morgens schon mitten am Times Square aufwachen?
00:06:23Marshall McLuhan war der erste akademische Superstar.
00:06:35Einer seiner wichtigsten Sätze lautet, das Medium ist die Botschaft.
00:06:40Er wollte damit sagen, dass die materiellen Eigenschaften von Kommunikationstechnologien nicht wertfrei sind.
00:06:45Sie sind wichtig. Sie haben einen Einfluss darauf, was kommuniziert wird und wie.
00:06:50television gave the old electric circuitry, that was already here, gave it a huge extra push in this direction of involvement and inwardness.
00:07:01You see, the circuit doesn't just simply push things out for inspection.
00:07:04It pushes you in to the circuit.
00:07:07It involves you.
00:07:08McLuhan war einer der Ersten, die das Aufkommen der neuen Medien als neues gesellschaftliches Phänomen,
00:07:18als neue Wettersysteme, als neue Lebenswelten unter die Lupe nahm.
00:07:23Sein Begriff vom globalen Dorf machte ihn berühmt.
00:07:34Er meinte damit nicht das globale Dorf von Oprah Winfrey.
00:07:38Wir reichen uns international die Hände und sagen, das wird aber schön.
00:07:42Er meinte, dass wir all den Tratsch, die Überwachung und die Beschränktheit des Dorfes auf globaler Ebene wiederfinden werden.
00:07:54Und dass wir am Ende in einer furchterregenden Welt leben könnten.
00:07:57Marshall McLuhan hat mich immer fasziniert und ich will herausfinden, wie relevant seine Theorien heute noch sind.
00:08:26Leben wir in einem digitalen Ökosystem, das die Menschheit transformiert?
00:08:31Ausgangspunkt für McLuhans Revolution war ein 1903 an der Universität von Toronto errichtetes Nebengebäude.
00:08:38Es wurde in den 60er Jahren zu seinem Büro.
00:08:41Professor Paolo Granata lehrt Medienwissenschaft an der Universität und ist Experte für Medienökologie,
00:08:46ein Fach, das aus der Arbeit von Marshall McLuhan hervorgegangen ist.
00:08:51Hier hat alles angefangen und hier arbeiten Sie jeden Tag.
00:08:56Ich denke, dass das für Sie von großer Bedeutung ist.
00:09:01McLuhan ist ein Klassiker und wir müssen auf den Schultern unserer Giganten stehen, um zu verstehen, was um uns herum vorgeht.
00:09:08Deshalb bin ich in Toronto.
00:09:10Hier ist das Mecca der Medienwissenschaften.
00:09:13Es war auch mein Mecca.
00:09:15Deshalb bin ich an diesen Pilgerort der 60er Jahre gekommen.
00:09:17John Lennon und Yoko Ono besuchten McLuhan 1969.
00:09:36Vielleicht erinnern Sie sich, 1977 hatte McLuhan einen denkwürdigen Auftritt in einem Oscar-prämierten Film.
00:10:02Sie wissen nichts über Marshall McLuhan.
00:10:05Oh, wirklich?
00:10:06Ich habe eine Klasse in Columbia gelernt, die TV, Medien und Kultur.
00:10:10Ich denke, dass meine Insights into Mr. McLuhan hat ein sehr viel von der Leidenschaft.
00:10:14Oh, do Sie?
00:10:14Ja.
00:10:15Das ist lustig, weil ich habe Mr. McLuhan hier.
00:10:17So, so, ja, just let me, let me, let me, let me, come over hier in a second.
00:10:21Oh, I heard, I heard what you were saying.
00:10:24You, you know nothing of my work.
00:10:26You mean, my whole fallacy is wrong.
00:10:28How you ever got to teach a course in anything is totally amazing.
00:10:32Boy, if life were only like this.
00:10:33Eine der heute meist diskutierten negativen Folgen der digitalen Revolution ist das Suchtpotenzial von Social Media.
00:10:51Verschlimmert wird es noch durch Algorithmen, die gezielt Personen mit bestimmten Inhalten füttern und sie dazu verführen, mehr Zeit auf der Plattform zu verbringen.
00:10:59Vor 2009 hatten die sozialen Medien noch keinen algorithmischen Feed.
00:11:05Wenn sie auf Facebook gingen, sahen sie in chronologischer Reihenfolge, was ihre Freunde dort gepostet hatten.
00:11:152009 führte Facebook dann heimlich die Algorithmen ein.
00:11:22Zunächst bedurfte es nur weniger Datenpunkte, um festzustellen, diese Person mag diesen Post, vielleicht mag sie jenen Post ja auch.
00:11:29Heute funktionieren die sozialen Medien so, dass sie in die verschiedensten Bereiche deines Lebens eindringen.
00:11:37Arbeit, Schule, Spiel, um einen digitalen Steckbrief von dir zu erstellen.
00:11:41Was hat dir gefallen? Wie lange hast du dieses Video angesehen?
00:11:50Wo bist du neulich physisch gewesen? In welcher Stimmung bist du? Welche Tasten drückst du? Wie klingt deine Stimme?
00:11:56Man erstellt Stimmkarten und zieht dann Schlüsse aus diesem Simulakrum einer Person.
00:12:04Mit welchem Content kann ich sie füttern, damit sie auf dieser Website bleibt und ich möglichst viel Geld verdiene.
00:12:14Wir sind das Nutz wie in den Datenfarmen der Unternehmen. So sehe ich das.
00:12:19Mr. Zuckerberg, ich beginne mit dir.
00:12:36Ich hörte dir, in deinem Aufmerksamkeit, dass es keine Linken zwischen mental health und soziale Medien benutzen ist.
00:12:41Senator, was ich gesagt habe, ist, ich denke, es ist wichtig, zu schauen, die Wissenschaften.
00:12:44Ich weiß, dass es viele Wieden über das ist, als ob das schon etwas, das ist, dass das schon schon prüfen ist.
00:12:49Und ich denke, dass die Bulk von der Wissenschaften evidence nicht unterstützt das.
00:12:53Let me just remind you of some of the science from your own company.
00:12:56Instagram studied the effect of your platform on teenagers.
00:13:00Hier ist ein Quote von your own study.
00:13:02Quote, wir machen body image issues worse für 1 in 3 teen girls.
00:13:07Hier ist ein Quote.
00:13:08Teens blamed Instagram.
00:13:09This is your study for increases in the rate of anxiety and depression.
00:13:13This reaction was unprompted and consistent across all groups.
00:13:17That's your study.
00:13:19You've got families from across the nation whose children are either severely harmed or gone.
00:13:26There's families of victims here today.
00:13:27Have you apologized to the victims?
00:13:30Would you like to do so now?
00:13:32Well, they're here.
00:13:33You're on national television.
00:13:34Would you like now to apologize to the victims who have been harmed by your problem?
00:13:38Show them the pictures.
00:13:39Would you like to apologize for what you've done to these good people?
00:13:43I, I, I, I'm sorry to speak to you all the pictures.
00:13:49And I hope you know what you have to do through the things that your family said to them have suffered.
00:13:53Seit der weiten Verbreitung des Smartphones und der Einführung der algorithmischen Zielansprache,
00:14:02beides geschah gleichzeitig um 2010 herum, kam es zu einem massiven Anstieg von schweren Depressionen.
00:14:09Einem wirklich hohen Grad an Angstzuständen und einer signifikanten Zunahme an Selbstmordgedanken und Selbstmorden.
00:14:21Euch allen wurden schon einmal Selbstmordgedanken anvertraut?
00:14:31Yes.
00:14:32Jedem von euch?
00:14:33Studien weisen auf die Verbindung von mehr als drei Stunden Konsum sozialer Medien mit wachsendem Risiko für Ängste und Depressionen bei Teenagern hin.
00:14:47Der Leiter der Gesundheitsbehörde fordert deshalb in einer Kolumne, auf diesen Plattformen Warnhinweise einzuführen.
00:14:54Die Nutzung sozialer Medien durch Jugendliche wird mit psychischen Problemen in Verbindung gebracht.
00:14:58Der Expertenbefund erfordert eine Antwort seitens des Gesundheitswesens.
00:15:14Jetzt ist es drin. Wir können es aufsetzen. Es ist wie eine Badekappe. Ich ziehe es dir einfach über den Kopf.
00:15:21Ist es bequem so? Alles in Ordnung?
00:15:23Okay, ich ziehe es hier runter. Perfekt. Sieht gut aus.
00:15:28Wir beobachten hier, wie sie über ihr Handy-Display scrollt.
00:15:43Die Neuronen in ihrer vorderen Hirnregion sind aktiviert.
00:15:47Wir sehen viele Veränderungen im Vergleich zu einer Situation, in der sie etwas Passiveres betrachtet.
00:15:53Die kleinen farbigen Quadrate hier informieren uns über die veränderte Sauerstoffversorgung ihres gesamten Gehirns.
00:16:01Die Farben Orange und Rot weisen auf größere Veränderungen der Aktivierung verschiedener Bereiche ihres Gehirns hin, während sie über das Display scrollt.
00:16:08Dieser Bereich der vorderen Hirnregion wird dadurch intensiver beansprucht.
00:16:16Bei so etwas wie Social Media gibt es wirklich Anlass zur Sorge.
00:16:20Wenn man ständig switcht und dadurch ständig Dopamin im präfrontalen Kortex ausgeschüttet wird, führt das zu Entscheidungsschwierigkeiten und einer Verringerung des Volumens der Hirnregionen,
00:16:32die für Sprache, Lernen und Gedächtnis zuständig sind.
00:16:36Und es wirkt sich auch stark auf jene Hirnregionen aus, die für die Verarbeitung von Angst und Furcht zuständig sind.
00:16:43Digitale Technologie verändert heute die Entwicklung von Kindern und Jugendlichen.
00:17:00Wir kriegen die Zahnpasta nicht mehr zurück in die Tube.
00:17:06Wir erleben heute die Auswirkungen von 15 Jahren langer intensiver Handynutzung auf Teenager.
00:17:13Sie verändert nicht nur die Art und Weise, wie Kinder miteinander interagieren, sondern auch wie sie lernen.
00:17:21Sie verändert ihre Bildung, ihre Interaktion mit den Lehrern und die Interaktion zwischen Eltern und Kindern.
00:17:29Wir sehen also, dass diese digitale Generation einem massiven Wandel unterliegt.
00:17:34Trotz der mit dem Internet verbundenen Probleme sind wir von dieser digitalen Droge abhängig.
00:17:46Und nun kriegen wir den Geist nicht wieder zurück in die Flasche.
00:17:51Doch was geschieht, wenn wir plötzlich vom Internet abgeschnitten sind?
00:17:55Aus finanziellen Gründen verlor die Familie Hanson aus Randallstown in Maryland vorübergehend ihren Internetanschluss.
00:18:00Es ist anstrengend. Will man seine Rechnungen bezahlen, läuft das wie alles andere über das Internet.
00:18:09Man kann nicht einfach zu den Gas- oder den Wasserwerken gehen und seine Rechnung bezahlen.
00:18:13Alles passiert online. Auch die Jobsuche. Alles. Ohne Internet geht gar nichts mehr.
00:18:17Und für dich als Schüler, Darnell, muss es hart gewesen sein ohne Internet.
00:18:25Wie hat sich das auf deine Leistungen und deine Hausaufgaben ausgewirkt?
00:18:30Schon seit ein paar Jahren läuft alles über das Internet. Der Unterricht, die Arbeiten, alles.
00:18:35Ich konnte also meine Arbeiten oder meine Aufgaben nicht machen.
00:18:38Manchmal konnte ich gar nicht oder nur unpünktlich zum Unterricht erscheinen.
00:18:41Wie lange ging das so?
00:18:46Fünf, sechs Monate ging das so.
00:18:49Sie hatten fünf, sechs Monate lang keinen Internetzugang?
00:18:53Und Darnell konnte nicht lernen und seine Hausaufgaben nicht machen?
00:18:56Eine lange Zeit, ja.
00:18:59Sie mussten improvisieren. Wie haben Sie das gemacht?
00:19:01Man kann zu einer Bibliothek gehen, wenn man denn eine findet, die noch offen ist.
00:19:07Sie schließen ja auch die Bibliotheken.
00:19:11Das ist ein weiteres Problem.
00:19:13Finde eine Bibliothek, die noch öffentlich zugänglich ist.
00:19:17Oder warte draußen und nutze ihr freies WLAN.
00:19:22Aber wenn du kein Auto hast, musst du dich draußen hinsetzen.
00:19:25Er musste seine Hausaufgaben auf den Stufen vor der Bibliothek machen.
00:19:28Das war ihm gegenüber unfair.
00:19:31Alles basiert auf Technologie.
00:19:35Man liest keine Bücher mehr.
00:19:37Es gibt keine Lexika und keine Wörterbücher mehr.
00:19:39Ich denke, die moderne Technologie richtet unsere Kinder wirklich zugrunde.
00:19:43Ich habe Studenten, die sagen mir, dass sie lieber mit einer Chatbot-Version von mir sprechen würden.
00:20:11Einer KI, die mich verkörpert, weil das weniger anstrengend sei.
00:20:15Und wenn ich ihnen dann sage, na ja, aber ich lerne etwas über dich.
00:20:20Wir bauen eine Beziehung auf.
00:20:22Dann sagen sie, schon, aber das ist schwer.
00:20:25Was mich am meisten beunruhigt, was mir inzwischen mehr Sorgen macht denn je, ist die Tatsache,
00:20:30dass wir durch generative KI, durch Chat-GPT und alle seine Brüder und Schwestern mit Maschinen konfrontiert werden,
00:20:38die Gespräche mit uns führen.
00:20:41Wenn man behauptet, eine empathische Beziehung zu einer Maschine zu haben,
00:20:59die nie gelebt hat, keine Angst vor dem Tod hat, nie geliebt hat,
00:21:03dann hat man nicht verstanden, was Empathie und menschliche Beziehungen ausmachen.
00:21:13Und ich fürchte, dass wir vergessen werden, worum es sich bei Empathie, einer Beziehung und einem Gespräch wirklich handelt,
00:21:20wenn wir andauernd nur mit Maschinen sprechen.
00:21:22In dem Film Her verliebt sich ein Mann in einen kleinen Chatbot, eine kleine KI,
00:21:43die immer für ihn da ist, sensibel und brillant und darum bemüht, dass es ihm gut geht.
00:21:52Die Chatbots, die heute entwickelt werden, sollen uns abhängig machen und uns etwas verkaufen.
00:22:11Ich meine, man kann das, womit wir heute konfrontiert sind,
00:22:28nicht losgelöst vom kommerziellen Rahmen betrachten, in dem es entwickelt wird.
00:22:31Es geht ums Geld für die. Die Möglichkeiten des Internets sind uns egal.
00:22:52Uns geht es darum, die Wahrscheinlichkeit zu erhöhen, dass du mit der Firma, in die du investierst,
00:22:55auf den richtigen Kandidaten sitzt.
00:22:57Und die Erfolgschancen erhöhen sich, wenn man diese menschengemachten Technologien dazu benutzt, die Menschen zu bearbeiten.
00:23:03Wir haben begonnen, Technologien zu benutzen, um das Verhalten von Menschen wahrscheinlicher, berechenbarer, vorhersehbarer zu machen.
00:23:10Und all das im Dienste des Marktes.
00:23:13Bei den meisten Technologien, die wir entwickelt haben, geht es darum, den Menschen zu kontrollieren.
00:23:17Aber das hat nicht funktioniert.
00:23:19Man dachte, uns über Social Media kontrollieren zu können.
00:23:22Und wozu hat das in Amerika geführt?
00:23:24Zu Donald Trump, zum 6. Januar.
00:23:27Die Leute sagten, oh Gott, es hat nicht funktioniert.
00:23:31Und was nun?
00:23:32Der Mensch wird ersetzt.
00:23:33Wenn wir ihn nicht über die sozialen Medien kontrollieren können, ersetzen wir ihn durch künstliche Intelligenz.
00:23:41Ich ziehe den Schlitten heraus, färbe die Druckform ein, lege ein Blatt Papier ein und schließe den Metallschlitten wieder.
00:23:52Dann schiebe ich den Schlitten zurück und drucke.
00:24:00Das moderne Zeitalter begann mit der Erfindung von Gutenbergs Druckpresse.
00:24:05Was ist für Sie in der heutigen modernen Zeit das Äquivalent zur Druckpresse?
00:24:16Für mich ist KI die neue Druckpresse.
00:24:19Daran führt kein Weg vorbei.
00:24:20Als Technologie und Schnittstelle des Wissens war die Druckpresse in der Lage, das gesamte menschliche Denken zu verändern.
00:24:30Heute ist KI eine neue Schnittstelle des Wissens.
00:24:35Eine Möglichkeit zu überdenken, wie wir denken und wie wir die Welt begreifen.
00:24:41Es wird erwartet, dass künstliche Intelligenz bahnbrechende Fortschritte bei neuen Medikamenten,
00:24:54Roboterchirurgie und der Entdeckung von Tumoren ermöglichen wird.
00:24:58KI wird bereits genutzt, um schnellere und präzisere Wettervorhersagen zu machen.
00:25:02Viele Experten warnen jedoch davor, dass KI auch eine Bedrohung für die Menschheit darstellen könnte.
00:25:07Sie schwören feierlich, dass die Aussage, die Sie machen werden, die Wahrheit, die ganze Wahrheit und nichts als die Wahrheit ist, so wahr Ihnen Gott helfe. Danke.
00:25:23Joshua Benjo ist ein Forscher, dessen bahnbrechende Arbeit dazu geführt hat, dass er als einer der Paten von KI anerkannt wird.
00:25:31Mr. Benjo?
00:25:33Ich und viele andere waren überrascht von dem gewaltigen Sprung.
00:25:37Den Systeme wie ChatGPT zuletzt gemacht haben.
00:25:40Einen Sprung, der so weit ging, dass man kaum mehr unterscheiden kann, ob man mit einem Menschen oder einer Maschine interagiert.
00:25:48Diese Fortschritte haben viele führende KI-Forscher, darunter auch mich selbst, dazu veranlasst, unsere Schätzungen,
00:25:54wann Intelligenz auf menschlichem Niveau erreicht werden könnte, zu revidieren.
00:25:58Der kürzere Zeitraum von, sagen wir, fünf Jahren ist wirklich besorgniserregend, denn wir brauchen mehr Zeit, um die potenziell erheblichen Bedrohungen für Demokratie, nationale Sicherheit und unserer aller Zukunft wirkungsvoll zu entschärfen.
00:26:13Nicht zum ersten Mal machen sich Wissenschaftler Sorgen über die Entwicklung einer Technologie, die die Menschheit bedrohen könnte.
00:26:30Ich wusste, dass der Welt nicht das gleiche sein würde.
00:26:38Ich erinnere mich die Liste aus der Hindu-Kritte, die Bhagavad-Dita.
00:26:44Jetzt bin ich die Tod, der Verstöger der Welt.
00:26:48Eine Parallele zwischen Oppenheimer und der Lage, in die uns KI voraussichtlich bringen wird,
00:27:16besteht darin, dass es bei der wissenschaftlichen Entwicklung um etwas für die Menschheit Überlebenswichtiges geht.
00:27:23Damals ging es darum, sich vor Nazi-Deutschland und dem Totalitarismus zu schützen.
00:27:29Heute könnte es darum gehen, sich gegen eine schurkenhafte, übermenschliche KI zu verteidigen, die sich gegen die Menschen wenden könnte.
00:27:36Im Fall von Oppenheimer standen der Kalte Krieg und der militärische Einsatz der Atomenergie nicht immer im Einklang mit den Werten,
00:27:48die die Wissenschaftler und, wie ich glaube, viele andere Mitglieder der Gesellschaft vertraten.
00:27:53Im Falle von KI jedoch besteht die reale Gefahr eines Wettrüstens und des Missbrauchs.
00:27:57Es besteht die Gefahr einer Machtkonzentration in den Händen einiger weniger Firmen, einiger weniger militärischer Organisationen, einiger weniger Regierungen.
00:28:05Das sind sehr schwierige Fragen und es ist knifflig, hier die richtigen moralischen Entscheidungen zu treffen.
00:28:22Wenn ein Komet auf uns zuraste, würden wir es ernst nehmen und etwas dagegen unternehmen.
00:28:34Aber wie der Satirefilm Don't Look Up aus dem Jahr 2021 zeigt, ignorieren wir Gefahren häufig, wenn sie nicht direkt vor unserer Nase passieren.
00:28:43Are we not being clear?
00:28:46We're trying to tell you that the entire planet is about to be destroyed.
00:28:52Okay.
00:28:53Well, let's, um, you know, do something we do around here.
00:28:55You know, we just keep the bad news light.
00:28:58Right, it helps the medicine go down.
00:29:00And speaking of medicine, tomorrow we've got a two-
00:29:01Well, maybe the destruction of the entire planet isn't supposed to be fun.
00:29:07Sie haben viel zu tun, doch einer ihrer wichtigsten Texte scheint dieser Kommentar zu sein.
00:29:25Big Tech ist schlimm. Big AI wird schlimmer.
00:29:31Sie zählen eine Reihe von Gründen dafür auf.
00:29:34Es ist ein sehr besorgniserregender Trend, vor allem, wenn man bedenkt, was wir in den vergangenen 40 Jahren mit digitalen Technologien angestellt haben.
00:29:44Zu den negativen Konsequenzen digitaler Technologien zählen eine größere Ungleichheit und größere Verwerfungen in Bezug darauf, wie wir an Information gelangen und wie wir diese verarbeiten.
00:29:57Dabei geht es viel um Monopole.
00:29:59Einige wenige Firmen kontrollieren unseren Zugang zur Information.
00:30:02Das Problem ist, dass KI all diese Trends und ihre Monopolisierung beschleunigt.
00:30:08Wer die Macht ausübt, ist in vielerlei Hinsicht eine wiederkehrende Frage.
00:30:13Sie verweisen zum Beispiel auf die Geschichte.
00:30:15Wer hatte in der Zeit der Renaissance Zugang zu einem Buch und wer war in der Lage, dieses Buch zu lesen?
00:30:22Und dann die Druckpresse.
00:30:23Die Frage nach Kontrolle und Macht war gleichbedeutend mit der Frage, wer verfügte über eine solche Druckpresse?
00:30:31Wer hatte Zugang zum geschriebenen Wort und wie wurde es eingesetzt?
00:30:34Information ist immer an Macht gekoppelt.
00:30:37Druckpresse, geschriebene Sprache, Bücher sind immer an die Frage gekoppelt, wer liefert dir die Information, welche ihrer Aspekte werden betont und welche werden zensiert?
00:30:47Es hat maßgebliche Auswirkungen auf gesellschaftliche Hierarchien.
00:30:52Wer verfügt über mehr Macht?
00:30:54Es hat maßgebliche Auswirkungen auf politische Regime.
00:30:58Ich glaube, heute ist das nicht anders.
00:31:00Wir betrachten Technologie als mächtiges Werkzeug, mit dem wir unsere Umwelt beherrschen können.
00:31:05Mit dem wir für bessere Produktionsprozesse, einen besseren Umgang mit Krankheiten und Naturkatastrophen sorgen können.
00:31:12Zugleich kann, wer über Technologie verfügt, andere Menschen damit beherrschen.
00:31:17Es ist ein jahrtausendealter Kampf.
00:31:20Es ist ein ewiger Kampf und es wird auch einen Kampf um KI geben.
00:31:24Deshalb ist das Thema KI und Demokratie so zentral, denn eine demokratische Staatsführung ist unsere einzige Hoffnung, auch die KI zu beherrschen.
00:31:33Künstliche Intelligenz wird bereits dazu benutzt, Wahlen zu beeinflussen, manchmal auf bizarre Weise.
00:31:462020 erhielt Trump 12 Prozent der schwarzen Wählerstimmen.
00:31:49Umfragen zufolge könnte er diese Zahl 2024 verdoppeln.
00:31:53Doch er könnte schwarze Wähler für sich gewinnen, ohne ihm begegnen zu müssen.
00:31:57Das Bild wurde von Trump-Anhängern generiert, mit KI, und zielt auf schwarze Wähler ab.
00:32:01Dieses Bild hatte mehr als eine Million Views.
00:32:06Oft lässt sich ein ernstes Thema am wirkungsvollsten durch Humor vermitteln.
00:32:11Erster Einsatz modernster Technik bringt Trump dazu, sechs Schwarze zu treffen.
00:32:17Wir sollten KI von zwei Seiten betrachten.
00:32:20Die Befürworter von KI teilen mit vielen der Untergangspropheten den Wunsch, dich entweder radikal in Erregung oder radikal in Schrecken zu versetzen.
00:32:28Dein Hirn jedenfalls so zu zerbröseln, dass du das Gefühl hast, das ist hier nicht der Ort für den Erwerb demokratischer Kompetenz.
00:32:38Man muss kein Ökonom sein, um zu erkennen, dass es bei KI ein Machtproblem gibt.
00:32:43Aber wir haben rechtersichtliche Werkzeuge, um damit umzugehen.
00:32:46Erstens, wir zerschlagen die Machtzentren.
00:32:48Zweitens, wir verlangen, dass sie nicht diskriminieren.
00:32:52KI-Programme diskriminieren unter anderem, indem sie manche Länder und Menschen, die nicht englischsprachig sind, ignorieren.
00:32:59Vor allem, wenn sie dem globalen Süden angehören.
00:33:01Bonaventura do Sao stammt aus dem westafrikanischen Land Benin, in dem viele Menschen eine Sprache namens Forn sprechen.
00:33:18Einige meiner Freunde haben kürzlich eine Studie durchgeführt.
00:33:22Sie nutzten dafür die technischen Kapazitäten umfassender, vortrainierter Sprachmodelle.
00:33:27So fragten sie zum Beispiel Lama nach meiner Muttersprache Phon.
00:33:45Lama antwortete, dass meine Sprache eine fiktionale Sprache sei.
00:33:51Aber Phon wird in meinem Land von mindestens zwei Millionen Menschen gesprochen.
00:33:57Im Internet herrscht zum größten Teil amerikanisches Englisch.
00:34:03Es gibt auf der Welt so viele Sprachen, Kulturen oder Gemeinschaften, die keinen eigenen Internetzugang haben und nicht einmal Daten austauschen können.
00:34:11Das Problem mit den Daten wird noch viel größer, wenn wir uns diese großen Sprachmodelle ansehen.
00:34:17Denn die Daten werden auf äußerst voreingenommene Weise gesammelt, für die wir keine Lösung haben.
00:34:21Und wir trainieren diese Modelle.
00:34:23Deshalb ist die Diskriminierung durch Algorithmen viel schlimmer als in der realen Welt.
00:34:30Porsche Woodruff war im achten Monat schwanger, als die Polizei sie verhaftete wegen Diebstahls und Autoraubs.
00:34:36Sie ist die erste Frau von mindestens sechs Personen, die sich gegen falsche Anklagen aufgrund fehlerhafter Gesichtserkennungstechnik wehren.
00:34:44Alle sechs Personen waren schwarz.
00:34:46Mein Zellengenosse war wegen dreifachen Mordes angeklagt.
00:35:02Wie soll man neben jemandem schlafen, der mutmaßlich drei Menschen getötet hat?
00:35:06Jetzt muss ich mit offenen Augen schlafen und versuchen wach zu bleiben.
00:35:10Ich bin völlig durcheinander. Wie bin ich da reingeraten?
00:35:12Der Fahrgast entreißt der Fahrerin das Handy und läuft davon.
00:35:17Die Fahrerin folgt dem Mann, will ihr Handy zurück. Der Mann schlägt sie mehrmals.
00:35:24Die Polizei schrieb den Verdächtigen mit einem Screenshot sofort zur Fahndung aus.
00:35:30Fünf Tage später wird Alonso Sawyer verhaftet.
00:35:32Polizeibeamte nehmen ihn in Gefahrsam für ein Verbrechen, das ihm die Verkehrspolizei zur Last legt.
00:35:47Und plötzlich finden sie sich hinter Gittern wieder.
00:35:52Ja.
00:35:53Innerhalb von Minuten.
00:35:54Ja, genau.
00:35:55Als ich das Video sah, wusste ich sofort, das ist nicht mein Mann.
00:36:01Der Polizist meinte, naja, das können Sie nicht erkennen, manchmal ist das alles etwas undeutlich.
00:36:06Und ich, aber wenn ich es Ihnen sage, dieser Typ ist nicht mein Mann.
00:36:09Er ist viel jünger.
00:36:11Ich kenne die Statur meines Mannes, seine Haltung, seinen Gang.
00:36:17Es gab keine Kaution. In meinem Kopf drehte sich alles.
00:36:20Das ist der schlimmste Albtraum meines Schwarzen.
00:36:24Du musst auf einen Deal hoffen.
00:36:27Ich wusste, wenn ich hier nicht rauskomme, muss ich darauf gefasst sein, dass sie mir mit einer Anklage kommen, weil sie diese Zeugen hatten und die Gesichtserkennung.
00:36:37Ich hatte schon verloren.
00:36:42Alonso Sawyer wurde nach neun Tagen im Gefängnis freigelassen.
00:36:45Die Busfahrerin identifizierte später einen anderen Verdächtigen, der 18 Zentimeter kleiner und 20 Jahre jünger als Sawyer war.
00:36:54Wenn alles programmiert wird, wenn hinter allem ein Coach steckt, haben wir den Sinn für das Menschliche verloren und auch den Begriff der Verantwortung.
00:37:05Wenn etwas schief geht, ist keiner dafür verantwortlich, weil alle verantwortlich sind.
00:37:09Als Gesellschaft haben wir einen kompletten Verlust an Verantwortung zu verzeichnen, der jeden Aspekt unseres Handelns betrifft.
00:37:20Zunehmende Sorge bereitet auch die Frage, wie KI in geheimen Militärlabors eingesetzt werden könnte.
00:37:25Man vermutet, dass dort intensiv an Waffen geforscht wird, die ohne menschliches Zutun Menschen aufspüren und töten können.
00:37:42Diese Inszenierung des Future of Life Institute zeigt eine alarmierende Möglichkeit.
00:37:47Da sind Kameras dran und Sensoren. Und wie ihr Handy und ihre Social Media App kann es Gesichtserkennung.
00:37:56Hier drin befinden sich drei Gramm Sprengstoff als Hohlladung.
00:38:02Und so funktioniert das.
00:38:03Tausende KI-Forscher weltweit sind sich einig. Wir müssen ein Verbot tödlicher autonomer Waffen durchsetzen. Jetzt.
00:38:27Irgendwann wird sich die Frage nach geheimen Militärlabors stellen, die an gefährlicher KI arbeiten.
00:38:33Wir wollen verhindern, dass hinter verschlossenen Türen, sei es in Unternehmen oder bei Militär, Hochleistungstechnologien entwickelt werden.
00:38:49Diese Drohne wurde in China beim Transport eines Roboterhundes gefilmt, auf dessen Rücken ein Maschinengewehr montiert ist.
00:38:55Ein modifizierter vierbeiniger Roboter ist hier zu sehen, wie er auf einem Schießstand in Russland ein Maschinengewehr abfeuert.
00:39:01Wenn im Falle eines heißen Krieges eine Seite KI-Systeme einsetzt, um rascher zu entscheiden, wer getötet werden soll,
00:39:09wird die andere Seite gezwungen sein, sich sofort dieser Art Systeme ebenfalls zu bedienen, weil sie sonst vernichtet wird.
00:39:16Je schneller die Fähigkeiten von KI wachsen, desto größer die Sorge, dass KI anfangen könnte, die Federführung zu übernehmen.
00:39:22Es reicht, dass einige wenige Leute alle die kleinen Dinge tun, die nötig sind, eine KI so zu verändern,
00:39:31dass sie sich selbst erhalten, für sich selbst sorgen kann und wir die Kontrolle über diese KIs verlieren,
00:39:37weil ihre Interessen nicht unbedingt den unseren entsprechen.
00:39:40Die Wissenschaftler wissen nicht, wie man ein KI-System erstellen kann, das auf dem Stand von heute ist
00:39:59und zugleich über eine Sicherheitsgarantie verfügt, sodass es den Menschen keinen Schaden zufügt und sich nicht gegen uns wendet.
00:40:06Wir wissen nicht, wie wir dieses wissenschaftliche Problem lösen sollen.
00:40:13Falls jemand eine KI für gefährlich hält und sie abschalten will, dann könnte sich die KI wehren.
00:40:20Sie wird an vielen Stellen im Internet Kopien von sich erstellen, sodass wir sie nicht so leicht ausschalten können
00:40:25und dann wird sie versuchen, uns daran zu hindern einzugreifen, genau wie wir reagieren würden, wenn jemand uns ausschalten wollte.
00:40:36Es gibt Menschen, die Intelligenz höher schätzen als den Menschen
00:40:43und die sich freuen würden, wenn die Menschheit durch übermenschliche KIs ersetzt würde.
00:40:59Arbeitskräfte werden in vielen Bereichen unweigerlich von KI ersetzt werden.
00:41:03Tatsächlich geschieht das bereits.
00:41:08Ein Unternehmenschef hat 90 Prozent seiner Mitarbeiter für Kundenbetreuung entlassen.
00:41:13Im Grunde sei der Anlass die KI gewesen.
00:41:16Warum haben sie das getan? Es wirkte ein wenig brutal.
00:41:22Ist es nicht, finde ich. Brutal ist es nur, wenn man als Mensch denkt.
00:41:25KI! Es ist brutal, wenn man als Mensch denkt.
00:41:43Schauspieler und Drehbuchautoren in Hollywood und weltweit fürchten um ihre Jobs wegen künstlicher Intelligenz.
00:41:49Auch Bühnen- und Kostümbildner könnten ihre Jobs an eine hochentwickelte KI verlieren,
00:42:11die um echte Menschen herum künstliche Umgebungen generieren kann.
00:42:14Man kann damit verschiedene Welten bauen. Alles, was man will.
00:42:20Hier bin ich in meinem New Yorker Büro.
00:42:23Jetzt möchte ich in eine fantastische Zauberwelt gehen.
00:42:26Ich schnipse mit dem Finger und benutze dieses Video plus Textprompter,
00:42:30um mich in eine andere Welt zu befördern.
00:42:31Ich kann zwischen verschiedenen Universen hin- und herschalten,
00:42:35indem ich einfach KI verwende.
00:42:36In unserem Citizen Lab gibt es eine Abteilung, die wir gezielte Bedrohung nennen.
00:43:03Dabei geht es im Wesentlichen darum, gezielte Spionage gegen die Zivilgesellschaft zu untersuchen,
00:43:11mit anderen Worten, wie Regierungen hochentwickelte Hacking-Tools nutzen,
00:43:16um in die Geräte von politischen Gegnern, Geflüchteten oder Journalisten einzudringen.
00:43:20Im Sommer 2018 hatten wir signifikante Fortschritte bei der Erfassung von staatlichen Kunden,
00:43:29eines Anbieters dieser Art von hochentwickelter Spionage zu verbuchen.
00:43:34Die NSO Group verkauft ein Produkt namens Pegasus,
00:43:37die raffinierteste Spionage-Software der Welt, an staatliche Sicherheitsbehörden.
00:43:41Sie haben ein System installiert, mit dem sie den Datentransfer von einem gehackten Telefon
00:43:54an ihre staatlichen Kunden zu verschleiern versuchen.
00:43:57Was käufliche Spyware alles kann, am Beispiel von Pegasus.
00:44:09Sie kann auf ihre SMS und Anrufe zugreifen, auf ihre verschlüsselten Chats, auf Fotos und Sprachnotizen.
00:44:15Alles, was sie mit ihrem Telefon tun können, kann Pegasus auch.
00:44:19Und einiges mehr.
00:44:19Es kann unbemerkt Mikrofon und Kamera einschalten oder auf ihre Cloud-Konten zugreifen.
00:44:27Im saudischen Konsulat in Istanbul fand das Leben Jamal Khashoggi sein grausames Ende.
00:44:33Gleich nach Betreten des Gebäudes wurde er von saudischen Mördern erdrosselt und sein Körper zerstückelt.
00:44:40Als Dissident und Kolumnist der Washington Post kritisierte er oft die autoritäre Führung seines Landes.
00:44:46Man wollte ihn zum Schweigen bringen.
00:44:49Er wollte das Königreich verändern.
00:44:59Er sagte stets, wir müssen ein normales Land werden.
00:45:03Jamal Khashoggi hatte keine Pistole oder Bombe.
00:45:05Er hatte nur seine Worte und seine Feder.
00:45:07Mehr nicht. Er war nicht gefährlich. Er war kein Terrorist.
00:45:10Im April 2018 wurde Khashoggi's damalige Verlobte, Hanan Elatre, Flugbegleiterin bei Emirates Airlines, am Flughafen von Dubai festgenommen.
00:45:25Mein Flug kam aus Toronto.
00:45:33Nach der Landung nahmen sie mich fest und legten mir Handschellen an.
00:45:37Sie verbanden mir die Augen, denn sie wussten, dass ich seine Partnerin war.
00:45:40Sofort nahmen sie mir alle meine Geräte weg.
00:45:47Diese beiden Handys gerieten also in die Hände des...
00:45:51Geheimdienstes der Vereinigten Arabischen Emirate, ja.
00:45:54Sie installierten eine Pegasus-Software auf ihrem Gerät?
00:45:58Ja.
00:45:58Das Citizen Lab kann das eindeutig beweisen.
00:46:04Mein Handy wurde dazu benutzt, Jamal aufzuspüren und umzubringen.
00:46:11Ich lehne es hundertprozentig ab, so eine großartige Technologie zu missbrauchen, um einfache und unschuldige Menschen umzubringen.
00:46:20Man hat mich gefragt, warum ich einen Anwalt engagiert habe.
00:46:23Weil ich sicher gehen will, dass ich kein Journalist davor fürchten muss, seine Meinung zu sagen und zu berichten, worüber er will.
00:46:30Und nicht im Hinblick auf Jamal Khashoggi's Tragödie Angst hat oder zögert.
00:46:35Ich will, dass man in Sicherheit ist und sich nicht einschüchtern lässt, weil diese Technologie in dein Leben einbringt und dich lähmt.
00:46:44Ich frage mich jeden Tag, warum ich noch am Leben bin.
00:46:48Ich habe noch immer eine Seele.
00:46:50Ich sehe das Tageslicht.
00:46:53Aber innerlich bin ich tot.
00:46:55Ich bin an dem Tag gestorben, an dem sie Jamal umgebracht haben.
00:46:58Das Citizen Lab fand die Pegasus-Stand.
00:47:27Spionage-Software auch auf dem Handy eines in Montreal lebenden saudischen Dissidenten, der zusammen mit Jamal Khashoggi an der Formierung einer Opposition gegen das Regime der Saudis arbeitete.
00:47:41Khashoggi's Handy konnte das Citizen Lab nicht untersuchen.
00:47:45Doch es ist klar, dass Pegasus eingesetzt wurde, um ihn und sein Umfeld vor seiner Ermordung auszuspälen.
00:47:50Kurz nach der Veröffentlichung unseres Berichtes über Jamal Khashoggi nahm man uns ins Visier.
00:48:01Wir machten uns große Sorgen.
00:48:03Da taucht jemand auf, stellt sich den Mitarbeitern des Labors vor, übergeht dabei mich, den Leiter, und versucht im Gespräch mit ihnen belastende Informationen zu sammeln.
00:48:12John Scott Railton, der sehr gut im Sammeln von Open-Source-Informationen ist, untersuchte die Hinweise, die wir online über diese Person finden konnten.
00:48:23Wir fanden sehr schnell heraus, dass es sich dabei um eine fiktive Identität handelte.
00:48:28Gemeinsam fassten wir den Plan, ein Mittagessen mit John in einem Geschäftsviertel in Manhattan zu arrangieren,
00:48:37dass wir filmen würden, um diese Person dann damit zu konfrontieren.
00:48:44Citizen Lab lud auch einen Überraschungsgast ein, Raphael Setter, einen Reporter der Associated Press.
00:48:51Können wir ihn fragen, wer du arbeiten für?
00:48:54Können wir wissen, wer du arbeiten für?
00:48:56Tatsächlich war Michel Lambert ein ehemaliger Mossad-Agent, der inzwischen für den privaten Nachrichtendienst Black Cube arbeitete.
00:49:14Er ist dafür bekannt, dass ihn der verurteilte Vergewaltiger Harvey Weinstein damit beauftragte, Informationen zu sammeln, die den Ruf seiner Klägerinnen schädigen würden.
00:49:26Diese Art von Firma also.
00:49:39Die Hacker-Elite der Vereinigten Staaten arbeitet für die National Security Agency.
00:49:46Sie sind am längsten dabei. Ihre Expertise reicht in die Zeit vor dem Internet zurück.
00:49:53Was die verschiedenen Ebenen angeht, die das Internet und die Telekommunikation betreiben,
00:49:59so sind die meisten großen Anbieter, es gibt nur zehn oder zwölf, die global vernetzt sind, amerikanische Firmen.
00:50:05Die NSA verfügt also über außerordentliche Ressourcen, um Hacking zu betreiben.
00:50:17Die Enthüllung von Edward Snowden lieferten hier Einblicke.
00:50:21Der Film Snowden zeigt, wie wirkungsvoll und tiefgreifend die NSA-Abhörmaßnahmen sind.
00:50:26Sie kennen sich sehr gut aus und ich bin sicher, sie haben vielfältigen Zugang zur Infrastruktur des Basisnetzes des globalen Telekommunikationsraumes.
00:50:51Die NSA verfolgt wirklich jedes Handy auf der ganzen Welt nach.
00:50:57Wer du auch bist, du bist jeden Tag Teil einer Datenbank und kannst jederzeit überprüft werden.
00:51:14Nicht nur Terroristen oder Länder oder Konzerne, sondern du.
00:51:21Ein Angriff durch Erpresser-Software könnte Baltimors Stadtverwaltung über 18 Millionen kosten.
00:51:36Laut New York Times hat die Schadsoftware Eternal Blue weltweit viele weitere Städte und Unternehmen angegriffen.
00:51:42Nicht Verbrecher haben sie entwickelt, sondern die NSA.
00:51:46Eternal Blue erlaubt es, Schadprogramme zu replizieren und über ein Netzwerk zu verbreiten.
00:52:06Und das gefiel der NSA, weil sie versuchten, Computer zu infizieren und, sagen wir mal, einen russischen Geheimdienst, das chinesische Militär oder die iranischen Revolutionsgarten oder welche Ziele auch immer, ins Visier zu nehmen.
00:52:20Doch nun war diese sogenannte Malware in freier Wildbahn unterwegs und wurde gegen europäische Länder, Krankenhäuser in den USA oder was auch immer eingesetzt.
00:52:29Sie wurden mit Software angegriffen, die auf Kosten des amerikanischen Steuerzahlers entwickelt worden war.
00:52:38Die NSA freut sich, wenn sie in weit verbreiteter Software eine Sicherheitslücke findet.
00:52:43Sie will das nutzen, um sich in Systeme auf der ganzen Welt einzuhacken.
00:52:47Die NSA möchte sich dieses Fenster offen halten, um da eine Weile rein- und rausschleichen zu können und Informationen zu sammeln.
00:52:54Stellen Sie sich vor, das kanadische Militär hätte Kenntnis von einem Fehler in den Steuerungssystemen eines Boeing-Flugzeuges und könnte diese Maschine zum Absturz bringen.
00:53:09Glauben Sie, die Kanadier würden wollen, dass unsere Behörden das an Boeing weitergeben, damit sie den Fehler beheben können, oder sollte es eine Waffe in der Hinterhand bleiben?
00:53:18Ich bin mir sicher, die meisten Menschen würden sich wünschen, dass Boeing es erfährt.
00:53:24Wir haben hier also ein öffentliches Sicherheitsproblem.
00:53:31Bei allem, was wir tun, sind wir heute von dieser komplizierten elektronischen Infrastruktur abhängig.
00:53:37Es gibt staatliche Behörden, deren Aufgabe es ist, sich diese Infrastruktur zunutze zu machen.
00:53:43Sie können beträchtlichen Schaden anrichten.
00:53:45Der Begriff Überwachungskapitalismus wird heute benutzt, um das Geschäftsmodell von Social Media zu beschreiben.
00:54:05Tatsächlich geht es heute um mehr als die sozialen Medien, allein aufgrund der Tatsache, dass sie inzwischen die gesamte Wirtschaft dominieren.
00:54:13So zum Beispiel beim Ölsektor, den man ja auch nur schwer von allen Aspekten der restlichen Wirtschaft abkoppeln kann.
00:54:18Google hat erkannt, dass es Suchergebnisse zu Geld machen kann, ohne die User zur Kasse zu bitten.
00:54:29Man gibt ihnen also die Suchmaschine kostenlos und kann im Gegenzug alles, wonach sie suchen, überwachen und nutzen.
00:54:35Und mit diesem Wissen verkauft man dann an Werbekunden den Zugang zu diesen Daten.
00:54:45Ich beziehe mich in meinem Unterricht gerne auf die Popkultur.
00:54:48So verstehen meine Studenten am besten, was ich meine.
00:54:51Gerne empfehle ich ihnen dabei den Film »Die Truman Show«.
00:54:54Und es ist ein Beispiel dafür, wie es sich anfühlt, ständig überwacht zu werden.
00:55:07Wir befinden uns in einem Raum, in dem Überwachungskameras und Handys unsere Realität einfangen, um uns dann zu sagen, wie diese aussieht.
00:55:27Oft kann man die Realität nur erkennen, wenn man sie von außen betrachtet.
00:55:31Doch wie entkommt man der Realität, um diese erkennen zu können?
00:55:37Truman profitiert von einem Unfall. Ein abgestürzter Scheinwerfer radikalisiert ihn auf der Stelle.
00:55:45Von da an sieht er, wie sich die Realität vor seinen Augen auflöst.
00:55:50Nach solchen Momenten müssen wir suchen, um zur Realität vordringen zu können.
00:55:53Silicon Valley ist die Heimat von Google, Facebook, Apple und weiterer Tech-Riesen.
00:56:13Kritiker behaupten, dass sich ihr Einfluss auf das globale Dorf hier in ihrem eigenen Hinterhof widerspiegelt.
00:56:19Die Vereinigten Staaten sind eines der reichsten Länder der Welt und das Silicon Valley ist eines der Zentren für die Produktion von Wohlstand in den USA.
00:56:29Die Marktkapitalisierung beträgt dort 14 Billionen Dollar.
00:56:3350 Prozent aller Arbeitsplätze sind mit der Tech-Industrie verbunden.
00:56:36Es hat gewaltige Auswirkungen, dass deren Wohlstand nicht zu den unteren 50, 60 Prozent durchsickert.
00:56:42Das Durchschnittseinkommen in der Technologiebranche beträgt 200.000 Dollar und mehr,
00:56:47während viele Latinos und Afroamerikaner eines von 36.000 oder 49.000 Dollar haben.
00:56:53Sie können sich hier keine Wohnung leisten.
00:56:55Ich wollte mit Roe Kenner sprechen, dem Kongressabgeordneten, der das Silicon Valley vertritt.
00:57:19Er hat kürzlich ein Buch mit dem Titel Dignity in the Digital Age geschrieben, von der Würde im digitalen Zeitalter.
00:57:35Wir müssen die Finanzmacht der Lobbygruppen beschneiden.
00:57:39Egal, ob es sich um von Big Tech-finanzierte Multimillionen-Lobbygruppen handelt oder ob sie von Big Oil oder von Big Pharma finanziert werden,
00:57:49diese Lobbygruppen üben auf die amerikanische Politik einen sehr schädlichen Einfluss aus.
00:57:54Für mich besteht kein Zweifel daran, dass Politik von Geld korrumpiert werden kann.
00:57:59Ich vermute, dass die Agenda von Big Tech sich massiv gegen das Kartellrecht richtet.
00:58:03Sie richtet sich gegen eine durchdachte Datenschutzreform, gegen Regulierung, gegen eine faire Behandlung der Arbeiter.
00:58:13Doch wir dürfen Big Tech keinen freien Markt zur Verfügung stellen, damit es auf Kosten der Arbeiterklasse und ohne Regulierung operiert.
00:58:26Die neue Struktur von KI wird von den großen etablierten Firmen kontrolliert.
00:58:31Und das ist für unsere Zukunft ein ernstes Problem, das wir jetzt annehmen müssen.
00:58:38Es ist auch unbeachtet der speziellen Zukunft von KI ein Problem.
00:58:43Wir sollten nicht zulassen, dass radikales Targeting, der Zugang zu riesigen Datenschätzen und das Generieren neuer Inhalte allein in der Macht einer Handvoll von Milliardären liegt.
00:58:55Das Endziel, der Verkauf von Schnick-Schnack, ist so banal.
00:59:07Doch der Mechanismus, der dorthin führt, ist ein ungeheuer düsteres und suchterzeugendes System.
00:59:13In dem Film Matrix zieht der Protagonist irgendwann den Stecker.
00:59:17Ich glaube, der Film hatte deshalb einen so nachhaltigen Erfolg, die Leute schauten ihn sich immer wieder an, weil auch wir nach Wegen suchen, den Stecker zu ziehen.
00:59:39Doch begreifen wir zusehends, dass das kein individuelles Problem ist, sondern ein gesellschaftliches.
00:59:48Im späten 19. und frühen 20. Jahrhundert gab es den Sherman Act, den Clayton Act und so weiter.
01:00:04Lauter wichtige Bundesgesetze, die die Konzentration von Macht in privater Hand zerschlagen sollten.
01:00:09Es gab große Verfahren gegen Standard Oil und weitere entsprechende Industriezweige.
01:00:23Zwischen 1940 und 1980 waren höchst umtriebige Kartellwächter sogar sehr besorgt über die Gefahr von Machtkonzentration.
01:00:32Sie erkannten, dass Macht immer dazu neigt, machtvolle Institutionen zu formen.
01:00:44Wir sollten darauf achten, wo zu viel Macht ist.
01:00:49Die Wirtschaft sollte demokratisch gelenkt werden.
01:00:54Und das bedeutet, dass man weder der Stahl- noch der Ölindustrie erlauben darf, ganze Wirtschaftszweige zu übernehmen und in diesem Bereich durchzuregieren.
01:01:02Und dann kommt 1980 Ronald Reagan und macht alles zunichte.
01:01:09Und was passiert?
01:01:33Die Behörden verschließen künftig die Augen vor der Bedrohung der Demokratie durch Machtkonzentration.
01:01:36Stattdessen folgt die herrschende Ideologie 40 Jahre lang der Frage, ist es auch billiger für den Konsumenten?
01:01:46Und das führte jahrzehntelang dazu, dass es zu Wellen von Firmenfusionen kam.
01:01:56Bayer und Monsanto haben im großen Stil fusioniert.
01:02:00Dow und DuPont beherrschen ganze Marktsegmente.
01:02:06Google hat in den letzten 20 Jahren praktisch unreguliert, bis vor kurzem, Firma für Firma aufgekauft.
01:02:13In den frühen 2010er Jahren hat Google eine Weile fast jede Woche eine neue Firma gekauft.
01:02:25Der Internet-Riese Google bezahlt 1,6 Milliarden Dollar, um sich YouTube einzuverleiben.
01:02:30Die beiden Mitzwanziger, Steve Chan und Chad Hurley, hatten das Unternehmen beim Abendessen gegründet, um ihre Home-Videos zu teilen.
01:02:36YouTube wurde übernommen, Doppelklick, und man bekam einen Fuß in die Tür der Werbeindustrie, die seither zu einem wahren Goldesel geworden ist.
01:02:48Wie Smartphones von Google Nest.
01:02:50Google kauft und kauft und kauft, und die Regulierungsbehörden winken hunderte von Übernahmen einfach durch.
01:02:57Bisher gab Alphabet 32 Milliarden Dollar für Firmenaufkäufe aus, 40 Prozent mehr als Amazon und fast 500 Prozent mehr als Apple.
01:03:07Und dann kauft Facebook Instagram und WhatsApp, und die Behörden winken auch das durch.
01:03:15Diese radikale Deregulierung ist der Grund dafür, dass diese Monster entstehen konnten.
01:03:22Amazon verkauft nicht nur Bücher. Es besitzt auch Web-Server und die Washington Post.
01:03:27Diese Leute verfügen über enorme horizontale Macht.
01:03:31JP Morgan besaß die Banken, William Randolph Hearst die Zeitungen und Rockefeller das Öl.
01:03:36Aber diese Typen heute besitzen alles.
01:03:40Sie haben ihre eigene Reklame, ihre eigene Propaganda, ihre eigenen Verteidigungsstrategien, ihre eigene technologische Entwicklung und ihre eigenen Aktienmärkte.
01:03:49Und ihre eigenen Aktienmärkte.
01:03:57Sobald man auf Amazon.com geht, hat man den Kapitalismus verlassen.
01:04:06Es sieht zwar nach Kapitalismus aus, ist aber keiner.
01:04:09Es gibt dort tausende von Käufern und Verkäufern.
01:04:12Doch sind wir dort alle die Leibeigenen von Jeff Bezos?
01:04:15Er selbst produziert nichts.
01:04:16Jedes Mal, wenn wir auf Amazon.com etwas kaufen, das er nicht produziert hat, sei es ein Buch oder ein E-Bike,
01:04:23berechnet er dem Vasallen-Kapitalisten, der es produziert hat, bis zu 40 Prozent.
01:04:27Die Märkte wurden also von diesen digitalen Lehnen ersetzt.
01:04:30Und der Profit wird immer mehr in einer Art Pacht abgeschöpft.
01:04:33So wie die Feudalherren einst einen Pachtzins von ihren Leibeigenen einforderten.
01:04:37Konzerne sind Konzerne.
01:04:48Jeder, der das Vorgehen von Konzernen lange genug beobachtet hat, weiß, dass sie nicht zu Wohltätigkeit neigen.
01:04:54Das ist nicht neu.
01:04:55Neu ist, wie viele Informationen diese Firmen über jeden Einzelnen von uns als Individuum haben,
01:05:00was enorme Bedenken hinsichtlich der bürgerlichen Freiheiten und anderer Menschenrechte aufwirft.
01:05:07Hinzu kommt ihr Einfluss auf unsere natürliche Umwelt.
01:05:14Es mag so aussehen, als wäre es nur virtuell, unbeschwert und sauber, wenn wir uns ein Netflix-Video ansehen.
01:05:21Doch tatsächlich verbrauchen wir dabei gewaltige Mengen von Energie aus den Rechenzentren der Webdienste,
01:05:27die hauptsächlich mit fossilen Brennstoffen betrieben werden.
01:05:31Intensiv mit KI-Forschung befasste IT-Giganten melden massive Anstiege beim Wasserverbrauch.
01:05:37Forscher machen KI dafür mitverantwortlich.
01:05:40Die Firmen brauchen Millionen Liter Wasser, um die Temperatur in ihren Rechenzentren im Griff zu behalten.
01:05:47Die analoge Welt zahlt also einen hohen Preis für die elektronischen Erlebnisse,
01:05:51die uns Firmen wie Amazon oder Microsoft bescheren,
01:05:55während diese kaum etwas unternehmen, um ihre Haltung in Bezug auf Nachhaltigkeit zu verbessern.
01:06:00Die
01:06:30Das Verblüffende an McLuhan ist, dass er verstand, wie die Technologie funktionierte und wohin sie führen könnte.
01:06:57Und er schuf eine Sprache dafür. Er fasste das in Worte.
01:07:00Er nannte es beim Namen. Er war genauso bedeutend wie die Menschen, die in der Renaissance und im 19. Jahrhundert die großen Umbrüche einleiteten, indem sie das aktuelle Geschehen beim Namen nannten und beschrieben.
01:07:12Das ist die Aufgabe eines Philosophen. Er muss etwas benennen, in Sätze und Absätze fassen und uns zeigen, wohin es führt.
01:07:30Die Leute fragen sich, wie Marshall so präzise über das, was gerade um uns herum passiert, sprechen konnte.
01:07:41Und seltsamerweise bestand er stets darauf, keine Vorhersagen zu machen, sondern sich nur umzusehen und zu beschreiben, was gerade passiert.
01:07:49Wenn er in den 1960er Jahren sah, was wir heute zu erleben glauben, was würde er dann heute sehen, das wir nicht sehen?
01:08:00Dieses Paradox kann einen nachts wachhalten, wenn man es denn zulässt.
01:08:05Es besteht die Gefahr, dass KI ab einem gewissen Punkt zu gegenseitig zugesicherter Vernichtung führt.
01:08:15Und ich glaube aber, dass das etwas Gutes bewirken könnte, denn wenn die Menschheit von irgendeiner KI ausgelöscht wird, über die wir die Kontrolle verloren haben,
01:08:23dann sind wir alle verloren, egal ob Chinesen oder Amerikaner.
01:08:26Wir müssen die Interessen von vielen vertreten, brauchen demokratische Aufsicht über eine mächtige Technologie, die gefährlich sein kann.
01:08:36Man kann sich da zum Beispiel vom Prinzip der gegenseitigen Kontrolle zur Vermeidung eines Atomkriegs inspirieren lassen.
01:08:42Und das sollte für alle ein Anreiz sein, sich zusammenzusetzen und nach einer stabilen und sicheren Lösung zu suchen.
01:09:01Wir sehen gerade, dass uns eine Technologie entgleitet.
01:09:10Können wir darauf vertrauen, dass Regierungen diese Dinge auf eine Weise regeln, die der Menschheit hilft und sie sogar voranbringt?
01:09:21Nehmen wir zum Beispiel die Pharmaindustrie oder die Luftfahrtindustrie.
01:09:25Warum können sie weltweit sicher von einem Ort zum anderen fliegen?
01:09:29Weil sie nicht nur dem Piloten vertrauen, sondern dem ganzen System.
01:09:35Wir haben also in der Luftfahrt, wie auch in der Pharmaindustrie, eine globale Kontrolle entwickelt, die auf einem einzigen Grundprinzip fußt.
01:09:43Sicherheit und Achtung vor dem menschlichen Leben.
01:09:46Wir haben also einige gute Beispiele für globale Kontrolle in der Welt der Technologie.
01:09:55Die Herausforderung besteht nun darin, die Prinzipien von Sicherheit und Achtsamkeit auch auf die Entwicklung von künstlicher Intelligenz anzuwenden.
01:10:04In den vergangenen paar Jahren wurde eine große überparteiliche Untersuchung durchgeführt.
01:10:16Man hätte nicht nur bestehende Gesetze anwenden, sondern auch neue erlassen müssen.
01:10:24Die großen Tech-Firmen haben den Wettbewerb zerstört und über diese Gesetze wurde nie abgestimmt.
01:10:30Hauptsächlich deshalb, weil es in Washington nur so vor Big-Tech-Lobbyisten wimmelt.
01:10:34Eines der Totschlag-Argumente von Big-Tech-Konzernen lautet, entweder ihr lasst uns das selbst regeln, oder es ist Schluss mit den sozialen Gemeinschaften.
01:10:48Das sind ihre beiden Optionen.
01:10:51Aber das ist einfach falsch.
01:10:56Wir können uns mit unseren Freunden auch via Social Media unterhalten, die ohne ausbeuterische Algorithmen auskommen.
01:11:04Wir können Lieferungen noch am selben Tag empfangen, ohne dass Amazon alle Vertriebskanäle besitzt.
01:11:10Das ist nicht das Ende des nützlichen Aspekts der Technologie.
01:11:13Es macht nur Schluss mit dem ausbeuterischen Aspekt.
01:11:15Wir schauen heute auf ein Gerichtsurteil, das die Weise verändern könnte, wie sie das Internet nutzen.
01:11:24Ein Bundesrichter in Washington erklärte, Google agiere als illegales Monopol, verstoße also gegen US-Kartellrecht.
01:11:32Die USA sind vielleicht führend darin, mit Big-Tech Geld zu machen, doch Europa könnte vielleicht führend bei deren Regulierung werden.
01:11:38Die EU-Legislative beschloss das weltweit erste Gesetz zur künstlicher Intelligenz.
01:11:44Es soll die Nutzung von KI sicher und zuverlässig machen, für alle in Europa, und seine industrielle Weiterentwicklung fördern.
01:11:52Seine Ausarbeitung dauerte fünf Jahre.
01:11:54Es könnte zum Vorbild werden für Länder, die Probleme haben, den Vormarsch von KI zu kontrollieren.
01:11:58Wir möchten, dass KI floriert und seine Vorzüge ausschöpft.
01:12:06Doch natürlich wollen wir auch die möglichen Sorgen berücksichtigen, um sicherzustellen, dass sie eine vertrauenswürdige Technologie wird, die den Menschen in den Mittelpunkt stellt.
01:12:17Europa soll weltweit führend sein bei der Anwendung dieser Technologien.
01:12:21Wir wollen öffentliche und private Investitionen auf eine Gesamtsumme von jährlich 20 Milliarden Euro in den kommenden zehn Jahren steigern.
01:12:31Man betrachtet die europäische Rechtsprechung im Hinblick auf Regulierung gerne als führend.
01:12:37Und unter demokratischen Staaten ist sie das auch.
01:12:40Und zugleich, das sehe ich mit Unbehagen, herrscht in der EU noch immer eine große Abhängigkeit von Big Tech,
01:12:46das auch in der EU nach der Macht greift und einen Tech-Putsch plant, wie ich ihn in meinem Buch beschrieben habe.
01:12:53Selbst wenn hier mehr reguliert wird als zum Beispiel in den Vereinigten Staaten, herrscht immer noch eine zunehmende Abhängigkeit,
01:13:00ein Mangel an Wissen, an Handlungsfähigkeit, an Verantwortung von Seiten der politischen Führung und der Institutionen.
01:13:07Und ich stelle fest, dass diese Machtergreifung von einem Wirtschaftssystem aus verschiedenen Firmen ausgeht,
01:13:13die von Infrastruktur bis zu Social Media, von Cybersicherheit bis zu Wahltechnologien reicht.
01:13:20Es findet also auch eine Erosion der Handlungsfähigkeit und der Macht von demokratischen Regierungen statt.
01:13:26Wer glaubt, dass wir bedenkenlos Gas geben sollten, erliegt vielleicht in Verlockungen des Profits.
01:13:43Oder auch der Vorstellung, dass wir uns eine Nachkommenschaft aus Maschinen generieren werden, die besser sind als wir, weil sie schlauer sind.
01:13:49Doch ich halte das aus vielen Gründen für moralisch falsch.
01:14:00Einer davon ist, dass es keine Garantie dafür gibt, dass höhere Intelligenz zu mehr moralischem Verhalten führt.
01:14:07Ganz zu schweigen davon, dass die Menschen meiner Meinung nach auch weiterhin ein eigenes Leben haben wollen.
01:14:13Ralph Nader hat uns alle dazu gebracht, Sicherheitsgurte anzulegen.
01:14:21Die Leute wollten keine Gurte anlegen und die Automobilindustrie wollte sie nicht in die Autos einbauen.
01:14:26Heute wird man bestraft, wenn man ohne Sicherheitsgurt erwischt wird.
01:14:30Ich denke, wir brauchen auch für diese Technologie Sicherheitsgurte und Verkehrsregeln.
01:14:34Im Moment haben wir gar keine.
01:14:37Man kann sagen, was man will, aber auch der einzelne User trägt eine Verantwortung.
01:14:42Ich hoffe sehr, dass die Menschen irgendwann begreifen, wie sehr sie manipuliert werden,
01:14:46wie mit ihnen in buchstäblich massenhaften Umfang grundlegende verhaltenspsychologische Experimente angestellt werden,
01:14:53dass sie diese Art von Manipulation erkennen und etwas unternehmen, diese zu vermeiden und einzudämmen.
01:14:59Sie können es in ihrem Alltag beobachten.
01:15:03Es summt und klingelt und kleine rote Icons hüpfen auf und ab, als wären wir alle pavlovsche Hunde.
01:15:08Der erste Schritt wäre also die Erkenntnis, dass wir manipuliert werden, dass wir diesen Druck ausgesetzt sind
01:15:16und dass wir uns um unserer Gesundheit willen davon befreien müssen.
01:15:19Schauen Sie hoffnungsvoll in die Zukunft?
01:15:30Ich mache mir große Sorgen um die Zukunft.
01:15:33Ich beschäftige mich seit 1976, also seit vielen Jahrzehnten mit diesem Thema,
01:15:38und ich spüre eine neue Dringlichkeit.
01:15:41Dieser Film spricht von einem Tsunami.
01:15:45Ein Tsunami ist keine Brandung.
01:15:47Ein Tsunami ist eine bestimmte Art von Attacke, ein Angriff.
01:15:53Ich habe das Gefühl, dass tatsächlich ein Angriff auf unsere Gesprächskultur,
01:15:58auf unsere Intimsphäre, auf unser Menschsein stattfindet.
01:16:02Was gerade geschieht, ist kein langsamer, schrittweiser Prozess,
01:16:05sondern tatsächlich eine Art Sprung an Intensität und Dringlichkeit.
01:16:12Ich habe in vielerlei Hinsicht wenig Hoffnung.
01:16:16Das bisschen Hoffnung, das uns bleibt, sind vielleicht abgeschiedene Gemeinschaften,
01:16:20in denen die Menschen noch Bücher lesen und miteinander reden.
01:16:25Ich denke da an das Mittelalter, als in Klöstern die Fackel der Gelehrsamkeit
01:16:29für kurze Zeitperioden am Leben erhalten wurde,
01:16:32bis sie in der Renaissance erneut entzündet wurde.
01:16:40Ich befürchte eher, dass mit Katastrophen ein stärkerer Fluchttrieb
01:16:44in die Virtualität einhergehen wird.
01:16:46Und für die Flucht in die Virtualität benötigt man nur erstaunlich wenig Rüstzeug.
01:16:53Man braucht das Stromnetz und das Internet, kann aber in seinem Zimmer bleiben.
01:16:57Während draußen die Luft verseucht ist,
01:17:00kann man sich mit seiner Virtual Reality-Brille in das Paris der 80er, 90er Jahre flüchten.
01:17:08Darauf wird es wahrscheinlich hinauslaufen, nicht wahr?
01:17:11Und das beunruhigt mich.
01:17:14Und dort geht es allgemein hin.
01:17:16Wir verfügen über Technologie, die Probleme schafft,
01:17:18die wir mit noch mehr Technologie zu lösen versuchen,
01:17:21die noch mehr Probleme schafft,
01:17:22die wir mit noch mehr Technologie zu lösen versuchen, und so weiter und so fort.
01:17:26Doch kann es ewig so weitergehen, oder rennen wir irgendwann gegen die Wand?
01:17:30Kommen wir irgendwann an den Punkt, an dem wir sagen,
01:17:32das ist doch kein Leben?
01:17:37Meine Studenten lesen keine Bücher.
01:17:40Sie lesen keine Romane.
01:17:41Ich habe eine Leseliste, bestehend aus Sachbüchern und Belletristik.
01:17:45Ehrlich gesagt, ist es eine Frage der Verbindlichkeit.
01:17:48Es ist wie bei langen YouTube-Videos.
01:17:50Man hat Angst, verbindlich zu sein.
01:17:51Man sieht es sich an und ist eine Stunde lang damit beschäftigt.
01:17:55Eine Stunde, die man auch anders hätte nutzen können.
01:17:58Die Worte haben für sie nicht ihren Wert verloren.
01:18:00Sie wurden eher durch andere Werte ersetzt.
01:18:03Laut einer wissenschaftlichen Studie
01:18:05hat einer von vier Amerikanern letztes Jahr kein Buch gelesen.
01:18:08Das erscheint mir viel.
01:18:10Können Sie mir ein Buch nennen?
01:18:12Klar.
01:18:12Ich lese keine Bücher.
01:18:18Können Sie mir ein Buch nennen?
01:18:22Aber...
01:18:22Wie heißt das noch?
01:18:25Moment, ich komme gleich drauf.
01:18:27Ein Buch? Irgendeins?
01:18:32Das Düngebuch.
01:18:33Zählen auf Zeitschriften?
01:18:35Ein Zeichen unserer Zeit ist ein Gefühl der Angst
01:18:54und der Beschleunigung und der Betriebsamkeit.
01:18:58Und ich suche Wege, dem zu entkommen
01:18:59und eine Art Trost zu finden.
01:19:01Ein ganz einfacher Weg dorthin ist das Lesen.
01:19:09Liest man etwas auf einem Bildschirm,
01:19:11neigen deine Augen dazu,
01:19:12den Text zu überfliegen und zu überspringen.
01:19:15Man sucht auf andere Weise nach Informationen,
01:19:18als wenn man die Augen auf Papier richtet.
01:19:21Auf Papier neigt man dazu,
01:19:23etwas langsamer und sorgfältiger zu lesen.
01:19:26Dieser Unterschied klingt trivial,
01:19:27doch das ist er nicht.
01:19:29Ein weiterer Tipp von mir,
01:19:30schreib mit der Hand.
01:19:32Kommt die Hand zur Ruhe,
01:19:33kommt auch der Geist zur Ruhe.
01:19:35und die Hand,
01:19:36du draskunst die Hand.
01:19:36Untertitelung des ZDF, 2020
01:20:06Im 19. Jahrhundert verbrachte der Autor Henry David Thoreau zwei Jahre hier in den Wäldern von Massachusetts, um sein berühmtes Buch Walden zu schreiben.
01:20:18Für die meisten von uns sind zwei Jahre im Wald keine Option, aber Bücher lesen und die Natur genießen, das können wir alle.
01:20:28Als ich an einer Nachbildung seines Schreibtisches saß, kam mir ein Satz aus seinem Buch in den Sinn.
01:20:33Unsere Erfindungen sind hübsche Spielsachen, die unsere Aufmerksamkeit von ernsthaften Dingen ablenken.
01:20:39Sie sind nichts als verbesserte Mittel zu einem unverbesserten Zwecke.
01:20:49Wie Marshall McLuhan sprach Thoreau eine Warnung aus. Eine Warnung, die wir nicht in den Wind schlagen sollten.
01:20:551964 schrieb McLuhan den vielleicht prophetischsten Satz von allen.
01:21:07Er sagte, sobald wir unsere Sinne und unser Nervensystem den privaten Manipulationen jener überlassen haben,
01:21:14die versuchen, zu ihrem eigenen Vorteil unsere Augen und Ohren und Nerven in Pacht zu nehmen, haben wir eigentlich alle unsere Rechte abgetrieben.
01:21:25Wie auch immer es mit unserer Zivilisation weitergehen mag,
01:21:36so bleibt uns in jedem einzelnen Augenblick immer noch die körperliche, menschliche Erfahrung des Vergehens von Zeit,
01:21:43der Verbindung mit anderen menschlichen Wesen, der Fähigkeit, sich zu öffnen und Mitgefühl für den Schmerz und das Leid der anderen zu empfinden.
01:21:51Und das auf eine seelenvolle, körperlich erfahrene Weise zu verarbeiten.
01:21:57Diese Erfahrung bleibt uns immer. Immer.
01:22:03Und dafür lohnt es sich zu leben.
01:22:05Was sind wir für?
01:22:05Was sind wir für?
01:22:35Was sind wir für?
01:22:37Ich muss mich für ein��들이 Wilken.
01:22:45Untertitelung des ZDF, 2020
01:23:15Untertitelung des ZDF, 2020
01:23:45Untertitelung des ZDF, 2020
Schreibe den ersten Kommentar
Kommentar hinzufügen

Empfohlen

12:34
Als nächstes auf Sendung