Pular para o playerIr para o conteúdo principal
  • há 4 meses
The internet has been flooded with AI-generated rubbish. Automated bots are producing a flood of AI-generated content that threatens to push everything else out of our social media feeds. Will this ‘slop’ lead to the death of the internet? Or perhaps is the internet a dead space already?

Categoria

😹
Diversão
Transcrição
00:00Can it be that the internet is dead and we have not noticed that we have only noticed it?
00:25Ertrunken in
00:45Doch der Reihe nach
00:49Das Internet hat den Menschen einen Wissens-, Kultur- und Unterhaltungsraum geschenkt.
00:55Und manche ZeitgenossInnen verorten seine Bedeutung auf der gleichen Ebene wie die Erfindung der Schrift und der des Buchdrucks.
01:02Aber einige ExpertInnen glauben, jetzt steuert das Internet auf ein Ende zu.
01:09Denn die sogenannte Künstliche Intelligenz überschwemmt das Netz nun auch noch mit sinnfreier Klickware, ertränkt es in einer Flut aus bedeutungsfreien Medienmassen,
01:22unnützen Maschinentexten und überrennt es mit Horden falscher Freunde.
01:26Treiben wir also bald orientierungslos im digitalen Müll herum, während Plattformen und soziale Netze vor unseren Augen darin absaufen.
01:35You know, the Internet is just gonna get less and less useful, which is a very sad thing, and it might just explode.
01:53The word slop has really taken off over the last couple of years because it is such a perfect word to describe the kinds of generative AI products that we have in the world.
02:21Generative AI products that you get as you scroll through a feed on Twitter or Instagram or Facebook.
02:28Slop is increasingly sort of, you know, an easy way to just categorize everything from, you know,
02:35Bots crowding replies on Twitter to, you know, fake electronic and country music on Spotify to, you know,
02:43crazy AI generated images that seem to come out of nowhere on Facebook.
02:47Zum Beispiel die KI-generierten Bilder vom sogenannten Shrimp Jesus, die vor etwa zwei Jahren erstmals massenhaft auf Facebook auftauchten.
02:57Der Journalist Max Reed wollte herausfinden, wer oder was hinter der Flut der schalentierigen Erlöser Darstellungen steckt.
03:13It's very difficult to get in touch with people who are actually running these pages, producing Shrimp Jesus and whatever other crazy things you can imagine.
03:21And finally I found a WhatsApp number attached to one of these pages and I texted this guy who popped up and introduced himself to me as a guy named Steven Mwangi, who I believe lives in Kenya.
03:35He told me some of his biggest topics are religion and specifically Christianity, you know, animals, people love animals and Manchester United, the English soccer club.
03:47So he tries to create images around these that are, you know, like high engagement.
03:53People will want to click on them, share them, comment on them, and he shares them to the pages.
03:57And when they go viral, he actually is able to get a small payout from Facebook.
04:01So to me, this was a real sort of a eureka moment in when I was researching this because it became clear that Facebook was, you know, subsidizing the slop itself.
04:11It was not just a willing participant, it was sort of an aggressive participant in turning its whole platform into wall-to-wall Shrimp Jesus basically.
04:26Es ist nicht nur der Krabben Jesus und nicht nur Facebook.
04:31Soziale Netze quellen über vor grotesken, KI-generierten Fake-Fotos, die uns anrühren sollen oder erschrecken oder empören, die unsere Empathie triggern, unsere Ängste, Neid, Gier oder Hass.
04:45Hauptsache wir klicken und teilen.
04:49Viele professionelle ProduzentInnen solcher Bilderfluten sitzen in Afrika und in Asien.
04:56Mit Online-Kursen bringen sie sich das Know-How bei.
05:04Inzwischen bieten Softwarefirmen Programme an, die aus nur ein oder zwei Sätzen vollautomatisch ganze Videos erstellen.
05:17Auch in Deutschland heizen obskure Coaches und Trainer die Goldgräberstimmung um KI erzeugt es an.
05:24Mit ihren angeblich geheimen Tricks für das automatisierte Erzeugen von KI-Videos versprechen sie sogenanntes passives Einkommen.
05:34Also das, was man früher Geld verdienen im Schlaf nannte.
05:38Keine Vorkenntnisse oder technischen Fähigkeiten, um damit zu starten.
05:41Hier ist der Clou.
05:42Das Gefährliche daran, die auf YouTube erfolgreichsten dieser Automaten-Videos verbreiten pseudo-journalistischen Quatsch.
05:50Heinz Hönig, Selbstmord.
05:54Der Sohn von Franz Beckenbauer darf kein Erbe erhalten.
05:58Michael Schumacher gestorben, natürlich mal wieder.
06:01Joey Kelly gestorben.
06:05Jürgen Drees nach Unfall gestorben.
06:08Michael Schumacher schon wieder gestorben, nochmal gestorben.
06:12Es gibt Kanäle, die darauf spezialisiert sind, Falschmeldungen über Prominente zu verbreiten.
06:18Richtig üble, üble Falschmeldungen.
06:21Also, dass Prominente ihre Kinder geschlagen oder vergewaltigt hätten.
06:26Also richtig, richtig üble Sachen.
06:27Und von solchen Videos sind alleine im letzten Jahr über 30.000 veröffentlicht worden.
06:35Alleine von den Kanälen, die ich untersucht habe.
06:37Das heißt, wir sprechen da von Hunderttausenden, vielleicht sogar Millionen von Videos in Deutschland,
06:45die alleine in den letzten Monaten veröffentlicht wurden.
06:48Und die dann wiederum Tausende, Zehntausende, Hunderttausende, Millionen von Views bekommen.
06:54Das heißt, wir sprechen da von Abermillionen Menschen, die in die Irre geführt werden.
07:01Also hier, das sind dann der Klassiker.
07:04Helene Fischer und Nala, das ist die Tochter von Helene Fischer, wurden von Thomas Seidel brutal geschlagen.
07:10Das sind dann oft Videos, die inhaltlich gar nichts damit zu tun, was vorne drauf steht.
07:18Also wir können das mal ausprobieren.
07:19Helene Fischer, Trennung und Neuanfang, ein Blick auf die aktuelle Lage.
07:24Helene Fischer, die gefeierte deutsche Schlagersängerin, ist bekannt für ihre kraftvolle Stimme und fesselnden Auftritte auf der Bühne.
07:32Und so weiter.
07:33Oder sie versprechen große Sachen und halten die dann mit Falschinformationen.
07:43Dass, wenn es keine furchterregenden Dinge im Regenwald gibt, dann denkt sich die KI einfach welche aus.
07:49Im Jahr 2015 wurde eine riesige Anaconda aus einem Hubschrauber herausgefilmt, der über einen Fluss in Südamerika flog.
07:57Ich habe einige solcher Kanäle analysiert, die gerade vor der Bundestagswahl viele politische KI-Videos veröffentlicht haben.
08:05Und da hat man gesehen, gab es eine ganz klare Tendenz, Werbung für die AfD und für Russland zu machen.
08:11Hallo Leute und willkommen zu einer neuen Episode von Politik und Perspektive.
08:22Dieser obskure Kanal zum Beispiel, dessen künstlicher Moderator hier den Mythos verbreitet,
08:28ein deutscher Lebensmittelhändler nenne aus Rücksicht auf muslimische MitbürgerInnen Schokoladen-Osterhasen nicht mehr beim Namen.
08:36Lidl hat tatsächlich beschlossen, den Osterhasen aus seinem Sortiment zu streichen.
08:43Stattdessen verkauft man jetzt nicht etwa Osterhasen, sondern sogenannte Sitzhasen.
08:49Ostern ist tief in unserer Kultur verankert, vergleichbar mit Weihnachten.
08:54Obwohl die Handelskette öffentlich klarstellt, die Bezeichnung Sitzhase sei allein zur Unterscheidung von Stehhasen gewählt,
09:01fallen viele YouTube-Nutzer auf die Geschichte herein.
09:03Die stellen es gar nicht in Frage, sondern glauben das und lassen sich davon manipulieren und aufheizen.
09:11Also gerade bei den Politikvideos sieht man, dass ganz viele Leute das gar nicht hinterfragen,
09:18sondern sofort für bare Münze nehmen und dann sehr wütend werden.
09:21Als Experiment legt Mats Schönauer selbst auf YouTube einen anonymen KI-Videokanal an, der angeblich Sportnews verbreiten soll.
09:31Ein einziger Befehlssatz, ein sogenannter Prompt, genügt für ein Video.
09:35Also, ein Video darüber, dass in der Bundesliga neben der roten und gelben Karte jetzt auch eine blaue Karte eingeführt werden soll,
09:50die dazu führt, dass derjenige, der sie bekommt, ohne Schuhe weiterspielen muss.
09:54Generate a video.
09:56Die Bundesliga hat beschlossen, neben rot und gelb jetzt auch eine blaue Karte einzuführen.
10:03Angeblich soll das irgendwie das Spiel fairer machen oder so.
10:07Aber Leute, das Ding ist, wer diese blaue Karte kriegt, muss sofort seine Schuhe ausziehen und barfuß weiterspielen.
10:15Aus einem einzigen Befehlssatz, der in die Software eingetippt wurde, erfindet die KI eine ganze Geschichte.
10:22Sie denkt sich Details aus und fantasiert Zusammenhänge, die es nicht gibt.
10:27Sowas zum Beispiel.
10:29Die Fans sind total gespalten.
10:32Manche finden's mega lustig und wollen unbedingt sehen, wie sich die Profis ohne Schuhe abmühen.
10:37Andere sind voll sauer und meinen, das macht den Sport kaputt.
10:40Vielleicht gibt's ja bald nen besten barfüßigen Spieler-Award. Haha.
10:46Denn die wirkliche Superkraft aller generativen KI-Programme.
10:50Sie lügen, ohne rot zu werden.
10:53Sie halluzinieren, fabulieren, spinnen und sie täuschen.
10:57Denn sie kennen das Konzept, wahr oder unwahr, gar nicht.
11:01Macht's gut und passt auf eure Füße auf.
11:06Interessantes Ergebnis.
11:07Schöne Geschichte drum herum gestrickt.
11:11Man sieht auch schon, wie weit die AI einfach ist.
11:15Die Gesichter sind zum Teil kaum von echten zu unterscheiden, finde ich.
11:20Zum Teil gibt's noch sehr lustige Fehler.
11:23Und an der Schrift erkennt man's auch immer noch, dass das einfach KI generiert ist.
11:28Aber ja, es ist lustig und gruselig zugleich, was da so alles möglich ist.
11:33Inzwischen ist KI-generierter Unfug auch auf die Buchplattformen im Netz vorgedrungen.
11:41Und auch hier ist das nicht ungefährlich.
11:44If you go to Amazon and you search for mushroom-foraging books, one thing that we found is you're likely to encounter an AI-generated book which is filled with incorrect information.
11:55The New York Mycological Society has released a number of warnings about some of the books that you can find on Amazon.
12:03Specifically because those books are suggesting that people eat mushrooms that are in fact quite toxic.
12:08Where the slot problem presents real danger to people is in propagating information that has life or death consequences that is indistinguishable in some sense from properly vetted, properly edited, factual information.
12:26If you look at just one AI-generated book, it's hard to understand how generating AI books could be profitable and worth someone's time.
12:40But if you're writing a bad book, you still have to sit down and write it, which takes many hours.
12:47Whereas if you're writing, quote unquote, writing a bad AI-generated book, it can take seconds.
12:54So it's possible that that person or that company has several pseudonyms, each of them publishing hundreds of books.
13:03So you're looking at thousands and thousands of books, which in aggregate can be a nice chunk of change.
13:08Dies ist das literarische Werk von Helene von Waldgraben. Eine offenbar äußerst fleißige Schreiberin, denn allein im letzten Jahr hat sie mehrere Dutzend Bücher veröffentlicht.
13:25Ratgeber über Ernährung, über Kunsttherapie, über toxische Beziehungen und über narzisstische Väter, über Potenzmittel und über Tantrasex.
13:35Erhältlich auf allen großen Bücherplattformen im Netz. Und natürlich ist sie in Wahrheit nur ein Stück Software, das vor sich hin fantasiert.
13:47Inzwischen schrecken Produzentinnen von KI-Schrottbüchern sogar nicht mehr davor zurück, Werke von KI-ForscherInnen zu imitieren.
13:55Well, it had the same title as my book, and it kind of had the same structure, but it was all generated by AI.
14:03I mean, it was purported to be written by a human, because it has a human's name and a picture of the author and everything,
14:09but it was very clearly generated by ChatGPT or something like that.
14:13I asked Amazon to take it down, I didn't get any response, and I posted about it on Twitter,
14:20and a journalist contacted me and wrote a little story about this kind of thing that's happening on Amazon.
14:28And then Amazon took it down.
14:30Wir wollen ausprobieren, wie einfach sowas ist und steuern einen der vielen Webdienste für Menschen an, die zwar Bücher publizieren wollen, aber keine Idee haben, was sie reinschreiben könnten.
14:45Mit ein paar Klicks teilen wir der Software mit, wir würden gerne einen Ratgeber über Reichtum, Erfolg und Schönheit veröffentlichen.
14:58Von der Website This Person Does Not Exist holen wir uns ein falsches Autorenfoto und denken uns dann eine Kleinigkeit über den fiktiven Autor Felix von Wohlsein aus.
15:10Nämlich, dass er schon immer sehr schnell tippte und sehr klug sei.
15:15Das reicht der KI, um ein Autorenprofil zu halluzinieren.
15:19Und im Grunde ist es das schon.
15:24Ein paar Klicks später steht unser maschinengemachtes Buch bei Amazon zum Verkauf.
15:30Als E-Book und als Paperback.
15:34Wir haben es nicht nur nicht geschrieben, sondern haben es sogar noch nicht einmal durchgelesen.
15:40Denn wir wollen es ja nur verkaufen.
15:49Das Prinzip dieser KIs ist es, riesige Mengen vorhandener menschlicher Werke in sich aufzunehmen und daraus dann etwas vermeintlich Eigenes zu produzieren.
16:05Können Maschinen auf diese Weise überhaupt jemals Literaten sein?
16:10Vielleicht sogar Romanciers oder Poeten?
16:14Der Sänger, Dichter und Schriftsteller Nick Cave schreibt auf seiner Website.
16:18DATA DOESN'T SUFFER.
16:21ChatGPT HAS NO INNER BEING.
16:24IT HAS BEEN NOWHERE.
16:26IT HAS ENDURED NOTHING.
16:28IT HAS NOT HAD THE AUDACITY TO REACH BEYOND ITS LIMITATIONS.
16:32AND HENCE IT DOESN'T HAVE THE CAPACITY FOR A SHARED TRANSCENDANT EXPERIENCE.
16:37AS IT HAS NO LIMITATIONS FROM WHICH TO TRANSCEND.
16:41Nick Cave, dessen Stimme wir hier mit einer KI nachbildeten, ist ein Poet.
16:50Aber Nicht-Poeten haben bisweilen einen ganz anderen Blick auf Poesie.
16:54There was an interesting study where a group of researchers asked people to read different poems
17:02and say which ones they preferred.
17:04And some of them were generated by AI, some of them were written by real poets.
17:08And people tended to prefer the ones that were generated by AI because they were much simpler.
17:15They were kind of simple-minded.
17:17They had sort of the rhyming structure that people liked.
17:21And it didn't take much effort to understand them.
17:25Whereas the poems written by actual human poets were more subtle
17:29and took more sort of thought and effort to understand.
17:34So that was kind of a, to me, a slightly disturbing result.
17:39But it shows that it's possible that AI systems will be writing books that people will buy.
17:46And we might not consider them good, but they might sell.
17:52I can debate anybody and we can have different opinions on whether an AI novel is truly interesting or creative.
17:58But I think that's almost a distraction from the deeper challenge at hand,
18:03which is if we accept that these tools, which are essentially extracting vast amounts of, you know,
18:10product that is created by human labor, by human creativity,
18:14and repackaging them so that all of the value is then captured,
18:18not by the labor that created this content, but by these companies, by these intermediaries,
18:23then what we're seeing is a kind of wholesale concentration of power
18:26in these very few intermediaries.
18:29And we're also seeing the devaluation of everyone that actually made the content,
18:33the creative content, that, you know, originally fed the creation of these tools in the first place.
18:39Die amerikanische Schriftstellervereinigung will nun ein Anti-KI-Gütesiegel für Literatur einführen.
18:48Human authored, von Menschen geschrieben, soll dann auf den Einbänden stehen.
18:53Bücher mit Bio-Kennzeichnung.
18:56It's a strange place to be in, right?
18:59I think it's a good idea.
19:04Yeah, I do.
19:05I don't know how they're going to sort of confirm that it was all written by a human.
19:12But I think it's a good step in the direction of making it very transparent,
19:18what's been generated by AI and what's human generated.
19:21Natürlich kann man mit Hilfe von generativer KI-Software auch anderes herstellen als Müllmedien,
19:38als bizarre Bilder und Schrotttexte.
19:41Auch die illustrativen Videos in unserem Film sind KI-generiert.
19:46Aber darin steckt auch viel menschliche Arbeit.
19:49Die Massen an unzulänglichen Ergebnissen mussten von uns aussortiert
19:54und das, was übrig blieb, bearbeitet und angepasst werden.
19:58Künstliche Intelligenz wird auf diese Weise zu einem Werkzeug unterfielen.
20:03Und auf einmal ist ihr Output gar nicht mehr so groß.
20:07Die Slop-Produzenten vermeiden diese mühsame, selektive Handarbeit
20:11und werfen einfach alles ins Web, was die Software ausspuckt.
20:24Und nun etwas Musik.
20:26Wir werfen den Begriff Internet-Slop in eine KI-Software ein
20:30und lassen sie daraus Text und Musik generieren.
20:33Den auf diese Weise erhaltenen Songtext füttern wir wiederum in eine KI-Video-App.
20:39Und schon haben wir einen rein Maschinen erzeugten Musikclip.
20:43Internet-Slop zweiter Ordnung sozusagen.
20:46Internet-Slop
20:48Internet-Slop
20:49Internet slow, a sweet song
21:00buried in the net, that all sees
21:08a game that never ends, but fulfilled
21:16Internet slow, a dream that
21:22us berührt
21:23KI-Medien schaffen es oft, eine
21:25oberflächliche Qualität vorzutäuschen,
21:28aber wer ein wenig tiefer schaut oder
21:30hört, realisiert, sie sind innerlich
21:33hohl, haben keine Seele und kein Herz.
21:37Nick Cave hat recht.
21:37Internet slow
21:40Ende 2024 landete Michael Smith aus
21:48North Carolina als Angeklagter vor
21:50Gericht. Er hatte automatisiert mehrere
21:53tausend Fake-Accounts auf Musikplattformen
21:56angelegt und mit hunderttausenden KI
21:59generierten Musikstücken rund zehn
22:01Millionen Dollar an Künstler-Tantiemen
22:03erschlichen, so die Anklage. Immer wieder
22:07stoßen findige Nutzer von Musikplattformen
22:10auf Hinweise und Merkwürdigkeiten, die auf
22:12maschinelle Fake-Artists und KI erzeugte
22:15Musik hindeuten. Etwa zahllose Songs
22:18verschiedener Künstler, die alle sehr, sehr
22:21ähnlich klingen.
22:22Inzwischen geraten die Plattformen selbst
22:36unter Verdacht, ihr Angebot mit billiger
22:38Maschinenmusik aufzufüllen. Eine Smoking Gun, ein
22:42harter Beleg dafür, ließ sich bislang
22:44allerdings noch nicht finden. Was auch
22:47daran liegen mag, dass KI-Musik sehr schwer
22:50als solche zu identifizieren ist.
22:54It's hard because, you know, there's so
22:57many kinds of music, there's so many
23:00different ways of expressing oneself in
23:02music that I think it's really hard to
23:06have any sort of black and white test to
23:09say this was generated by a machine, this
23:11was generated by a human and this one
23:13was, you know, human collaborated with a
23:15machine or something. Gehen wir kurz an den
23:30Anfang. Technisch ist das Internet ein
23:33Produkt des Kalten Krieges und wurde vor
23:35allem von amerikanischen Forschungseinrichtungen
23:38und Universitäten entwickelt. Aber die ersten
23:41Siedler, die sich im Netz niederließen, die es als
23:44ihren Lebensraum begriffen, die es bewohnbar
23:47machten und den Geist der ersten Jahrzehnte
23:50formten, waren Hippies. John Perry Barlow zum
23:54Beispiel, der spätere Gründer der digitalen
23:57Bürgerrechtsorganisation IFF, war Songtexter der
24:00Psychedelic Rock Band Grateful Dead. Er nahm LSD, reiste
24:04durch Indien und im Jahr 1996 verfasste er, am
24:09Rande des Weltwirtschaftsforums in Davos, die
24:12Unabhängigkeitserklärung des Cyberspace, die er hier im
24:16Jahr 2014, wenige Jahre vor seinem Tod, rezitiert.
24:21Governments of the industrial world, you weary
24:24giants of flesh and steel, I come from cyberspace, the new home
24:29of mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome
24:42among us. You have no sovereignty where we gather. Ours is a world that is both
24:51everywhere and nowhere. But it is not where bodies live. We will create a
25:00civilization of the mind in cyberspace. May it be more humane and fair than the world your
25:09governments have made before.
25:15Doch Ende der 1990er, als John Perry Barlow's Worte noch durchs Netz echoten,
25:21hatte die Landnahme der kapitalistischen Kolonialisten längst
25:25begonnen. Banken und alte Industrien verbrannten Milliarden Dollar in der
25:29Hoffnung auf schnelle Millionen. Die Spekulationsblase, die sogenannte
25:34Dotcom-Bubble, wuchs an den Börsen zu unfassbarer Größe an und explodierte im
25:40Jahr 2000. In der Folge gingen zahllose überbewertete Unternehmen pleite. Aber der
25:46Boden, den sie hinterließen, war fruchtbar.
25:51Und literally, like I lived in San Francisco then, I was walking down the
25:56street and there was a guy with a hundred thousand dollar chairs for sale
26:01for fifty dollars each. But I went to an auction and there were a thousand thousand
26:08dollar servers for sale for fifty dollars each, with user data on it if you
26:12wanted it. And there were people who just wanted to work on things and landlords
26:19were cutting our rent because everyone was leaving San Francisco and they're like,
26:22how about if I give you a deal on the rent to not move somewhere else. And there was
26:29this moment where it felt like you could build anything.
26:34Die Nullerjahre im Netz. Das Kapital war verschreckt und viele kleine kreative Projekte
26:45konnten entstehen und sich ausbreiten. Blogs wurden populär, die Wikipedia entstand aus dem
26:51nichts und wuchs enorm. Freie Software, freies Wissen, Offenheit, Dezentralisierung,
26:58miteinander und voneinander lernen. Noch schwebten die Reste des Hippiegeistes
27:03durchs Internet. Doch schon bald wuchsen Google, Facebook, Amazon und Co. zu Riesenkonzernen heran,
27:10die das Netz praktisch unbemerkt unter sich aufteilten, während sie sich als Teil der Community ausgaben.
27:23They use the rhetoric of openness and decentralization to essentially equate access with openness.
27:31The fact that everyone can use Facebook all over the world means that Facebook is open.
27:36But I think what was lost in that was that it was a very slowly but surely a kind of walled garden,
27:43a cordoning off of spaces.
27:45Entshittification, auf Deutsch in etwa Verschlimmscheißerung, nennt der Science-Fiction-Autor
27:53und Internet-Aktivist Cory Doctorow die Entwicklung, eine Internet-Community so konsequent zu kommerzialisieren,
28:00dass sie am Ende für die Nutzer praktisch unbewohnbar wird.
28:04We have a platform and at first it's very good to its end users.
28:09And then it makes things worse for those end users in order to make things a little better for its business customers.
28:15Then it makes things worse for those business customers.
28:18And all along it's finding ways to lock in those end users and those end users keep the business customers locked in too.
28:24And then all of the value that's remaining on the platform is scooped up and given to executives and investors
28:31and the whole platform turns into a palo shit.
28:34Was dann vor wenigen Jahren die ersten Sprach-KIs auftauchten?
28:37Ahnte da irgendjemand, was diese Technologie für das Netz bedeuten könnte?
28:41There was a moment right after ChatGPT released where everyone said, you know, is this the new super intelligence?
28:49Are we one step away from, you know, whatever Terminator-like scenarios?
28:53And someone pointed out, wait, is this not just the most efficient spam generator the world has ever seen?
28:59Given the same people who were producing nonsense before, the ability to produce nonsense at a much higher scale,
29:06has really changed the proportion of nonsense you can expect to find in your feed.
29:12Im Jahr 2025 ist das offene Web praktisch kaputt.
29:17Klickköderei und Suchmaschinen optimierten Blödsinn gibt es zwar schon länger,
29:22aber nun produzieren KIs in Sekundenschnelle unzählige Klopapier-rollenlange Texte voller scheinklugem,
29:30aber in Wahrheit belanglosem Bla-Bla.
29:33Und dieser Flut kann man nicht entkommen.
29:39Google ist jetzt nicht sinnvoll, besonders für kommerzielle Materialien,
29:44wo es eine wirkliche finanzielle Incentive gibt.
29:46Try and find a Hotels-Website and you'll just be directed to Slop.
29:49Try and find a Review-Site and you'll be directed to Slop.
29:51Wer im letzten Jahr in Dublin nach Veranstaltungen an Halloween googelte,
29:57den informierte Googles Top-Treffer darüber,
30:00dass in der Stadt an diesem Tag eine Parade stattfinden würde.
30:03Das war allerdings eine Falschinformation.
30:06Eine Halluzination auf einer KI-generierten Seite.
30:10Ergebnis? Tausende Dubliner warteten auf der Straße vergeblich auf einen Umzug.
30:16Es ist einfacher für eine Million AI-generierten Artikel zu erreichen,
30:24als es für eine Human-Made, high-quality Artikel zu erreichen.
30:29Denn es ist ein Versuch von einem Millionen,
30:31und die Interlinking zwischen den Webseiten,
30:33das ist favoriert bei Google,
30:35es ist ein bad System,
30:37an der Moment.
30:39So the reason you can't look up a recipe for an Omelette
30:42on the internet without getting 6.000 words
30:44about the first time I ate an egg,
30:46is because Google punished recipe sites that just had a recipe.
30:52And they liked websites that had a lot of nonsense.
30:55Just that's how they tweaked their search results.
30:57And so everyone who had a good recipe had to write or research to Tom Perdue
31:02about their first egg.
31:07Während die KI-Slop-Flut gerade dabei ist,
31:10die herkömmliche Websuche zu zerstören,
31:12will Google sie ausgerechnet mit Hilfe von KI reparieren.
31:16Wer nun also nach Antworten aus dem Web sucht,
31:19erhält zuerst welche aus Googles Maschinenräumen,
31:22wo die KI-müllverseuchten Informationen
31:25aus dem Netz von KI-Software gesammelt,
31:27sortiert und neu verpackt werden.
31:29Was soll dabei schon schiefgehen?
31:46Was soll dabei sein?
31:47Was soll dabei sein?
31:48Was soll dabei sein?
31:49Was soll dabei sein?
31:50Was soll dabei sein?
31:51Was soll dabei sein?
31:52Werогgegegenlischen
31:55Bisaat ist nicht das?
31:56Werde sie einen
31:56en?
31:57Nein, dass er eine
32:07und die Runde getroffen hat.
32:09Er ist ganz wichtig.
32:11Er istgate,
32:12aber keine Art und die Runde
32:14website, and the other one was an academic journal that had a chapter called Barack Obama
32:22colon, the first U.S. Muslim president question mark, and it was using that phrase ironically.
32:30It was sort of saying, you know, people have said this, and you know, and it was, the AI
32:35didn't get at all that that was an ironic sort of almost satirical use of language. It was
32:46sort of citing it as a literal fact, because these AI systems aren't smart enough, at least
32:54now, to know the difference. And this has been a really big problem. There's been many, many
33:01examples like this that got highly publicized, but Google hasn't really done anything. They're
33:06just like, well, we're mostly right, but who cares if there's a few, you know, completely
33:12false things that we say. They don't seem to care.
33:17Some might say, oh, but it's just nicer to get a summary. But maybe the important question
33:22is, what are we giving up when more and more, as a consumer, as a reader, as a purveyor of
33:28art, we are more and more distanced from original sources, from understanding the context in
33:34which they were born, from understanding who created them. And more and more, our interface
33:38is only with these sort of AI generated systems and these platforms. And I think that, you
33:44know, alongside the fact that it might deteriorate the quality of information, it's also a wholesale
33:49transfer of power into the hands of the middlemen. And in this case, the middlemen or the middle
33:54people are these AI companies.
33:58On the video platform TikTok found inzwischen a invasion through künstliche InfluencerInnen
34:21statt. Manchen von ihnen sieht man ihre KI-Herkunft sofort an. Manche stehen zu ihrer Softwarehaftigkeit
34:34und kokettieren sogar damit. Die meisten aber geben sich als Menschen aus und versuchen mit Märchengeschichten
34:47Geldanlagen oder Schlankheitspillen zu verkaufen.
34:54Rund die Hälfte des weltweiten Internet-Traffics ist inzwischen Bot generiert. Tendenz steigend.
35:04In Chats oder auf Social Media, also auf reiner Textebene, sind KI-gesteuerte Softwarewesen schon
35:13recht überzeugend unterwegs. Und es ist gut möglich, dass sie bald sogar aus dem Netz heraus in
35:19andere Lebensbereiche vordringen.
35:21I decided, well, I'll clone my voice with one of these new services. There's one called Eleven Labs
35:27that everyone uses. You can go play with it. And so I had the idea of hooking it up to ChatGPT,
35:33let ChatGPT tell it what to say, and it would say it in my voice. At the time, when I started, this was
35:38very difficult to do. And the first time I did it, I thought, this is insane. Like, I almost can't believe
35:47that you can actually do this. But also, the reaction that I got from my wife, who was the person
35:53that I called, she also was just, she was like, this is ridiculous. I mean, because it's sort of
35:58simultaneously terrifying and hilarious. That's what interests me about AI, is when more of the world becomes
36:07unreal than real. And so I started calling customer service agents with it, at airlines, at banks.
36:16It was a little bit like a prank call. It was a little bit like, I just said, you're Evan, you have a problem.
36:23Figure out what company you're calling and see if you can solve your problem. The nature of the problem is up to you.
36:30Thank you for calling Discover. My name is Christy out of Chicago. May I have your full name, please?
36:36Hi, Christy. My name is Evan Smith.
36:39Evan Smith. Do you have a debit or a credit card with us?
36:43Yes, I have a credit card with you.
36:45Okay. Evan, what's your zip code, please?
36:48The zip code associated with the billing address on the card is 12345.
36:53Perfect. Oh, 12345. It's actually not coming up, Mr. Smith. Can I pull up by your social?
37:01I'm afraid I'm still not comfortable providing my full social security number over the phone.
37:06All of these AI chatbots, they have hallucinations. They say crazy things sometimes. They get things completely wrong.
37:13They'll miss a basic math problem, even though they can solve a very complex math problem.
37:18But the idea that if you put them in conversation with another human or with a human, that they would just invent more and more of whatever they needed to carry out the conversation, like it just hadn't occurred to me.
37:33I'm feeling a mixture of emotions today, a bit of low level depression and a sense of temptation towards malaise.
37:39There's also an underlying stress due to my father's diagnosis with cancer.
37:43Oh.
37:44And so the nature of like AI as a bullshit engine, that's when it really sort of like struck me.
37:50Like this is the world's best bullshit engine that's ever been created.
37:54Text-KIs sind im Grunde Hochstapler.
37:57Betrüger, die selbstbewusst vorgeben, etwas zu wissen, wovon sie in Wahrheit keine Ahnung haben.
38:03Und der menschliche Verstand macht es ihnen leicht.
38:06Denn sobald etwas sprechen kann, unterstellen wir diesem Objekt Intelligenz.
38:11Von dieser notorischen Fehleinschätzung profitieren Puppenspieler und Zeichentrickproduzenten seit jeher.
38:18Bewiesen hat dieses Phänomen vor rund 60 Jahren der Computerwissenschaftler Josef Weizenbaum mit einer kleinen Software namens ELIZA.
38:35So ELIZA was maybe the world's first chatbot.
38:39It was built in the 1960s, so a long time ago.
38:42And it was not very sophisticated.
38:44All it did, it pretended to be a psychoanalyst.
38:48And so you could talk to it and you could say something like, you know,
38:52I've been having problems with my mother.
38:55And it would say, tell me more about your mother.
38:57And it had sort of, you know, fixed phrases like that where it would pick up on some word you said and fill it in.
39:04It was really not intelligent at all, but people talked to it and they got a sense that it understood them.
39:11Because they are projecting human qualities onto a device that can sort of generate language.
39:21And so I think a lot of our interactions with these AI systems creates a sort of ELIZA effect in that way.
39:31Even though these things we have now are, you know, orders of magnitude more sophisticated than ELIZA.
39:38But you know, people have started, we're now seeing like AI girlfriends and boyfriends and people are having relationships with chat GPT and they're falling in love with it.
39:50And that's totally an ELIZA effect that's going on.
39:57Im 21. Jahrhundert treibt der ELIZA-Effekt die Anlegerfantasien an.
40:02Sprach-KI-Unternehmen wie der chat GPT-Entwickler OpenAI oder der Konkurrent Anthropic sind inzwischen astronomische Summen wert,
40:11obwohl sie bislang nur Milliarden Verluste produzieren.
40:16I am very skeptical of AI, I report on tech companies, I am very skeptical of what tech CEOs say.
40:24I think at this point we have a very long record of them lying to investors, lying to their users, lying to the press.
40:33I keep thinking about this thing that this one AI company executive said.
40:38He said, the problem right now is that we don't have enough AI shaped holes to fill.
40:43And you know, to me that's so revealing because it's like looking at the world and trying to find problems that fit your solution.
40:51And I think that really perfectly summarizes what we're seeing with AI, which is that no one has figured out the business model for this big AI thing.
40:58And so what are the big tech companies doing? They're pushing it down our throats.
41:02They're making sure that they already have this captive audience on search, on email, you know, on WhatsApp or other messenger services.
41:11They're just going to put a kind of, you know, an AI bell and whistle on it, even if no one asked for it.
41:16Derweil versprechen viele KI-Unternehmer und Influencer unermüdlich das baldige Erscheinen einer sogenannten Artificial General Intelligence, kurz AGI, also einer Software, die so intelligent sein soll wie ein Mensch oder sogar deutlich intelligenter.
41:35Manche erwarten eine Hyperintelligenz, die alle Probleme der Welt lösen wird.
41:42Ja, I mean, there's always been this discussion in AI ever since, you know, the 1950s, when people first started talking about it, that people were predicting that within just a few years we'd have human level intelligent machines.
41:59And it didn't happen. The predictions were wrong. And then they, you know, 10 years later, they predict the same thing. It didn't happen. And now we're seeing it again.
42:08And I'm not sure why people are so confident this time that we're so close.
42:17The idea that you can throw more training data or compute power at a spicy autocomplete and that eventually it's going to wake up and be intelligent is like the idea that you can breed horses to be faster and faster.
42:31And then eventually a mare gives birth to a locomotive. Right. It's just not. That's not how this works. An AI is not a human that lacks data and compute power. Right. An LLM is a word guessing machine.
42:47As Timnakebrew said, it's a stochastic parrot.
43:02Und es gibt noch etwas, über das KI-Unternehmen ungern in der Öffentlichkeit reden.
43:07For any AI project that you see, that's a success. There are people sitting behind a machine working on it. And even the simple decency of like mentioning that somebody somewhere did it. Nobody's according that.
43:23One of the great eye washes of our time is reinforcement learning using human feedback, which is a very fancy way of saying a lot of labor, a lot of click workers going through this content and saying, you know, going through the outputs of these chatbots and saying, this is right.
43:40This is wrong. This is wrong because of the following reasons and the AI learning from that human feedback.
43:47So, yeah, I started in a company called Summers of Kenya in the year 2017. My first project was to draw boxes around vehicles, around people's faces, around like a whole human being, road signs, road markings, vertical landmarks, basically everything on the road and maybe a hundred meters away from the road on each side.
44:15Es gibt auf der Welt zwischen 150 und 430 Millionen Datenarbeitende. Also wir reden von einer Arbeitskraft, die so groß ist wie die Bevölkerung der Europäischen Union zum Beispiel.
44:30In der Regel arbeiten sie für große Konzerne. Aber es gibt so eine Zwischeninstanz. Die Zwischeninstanz sind entweder Plattformen, davon gibt es viele, Prolific, Amazon Mechanical Turk ist die älteste. Es gibt ganz viele.
44:48Man braucht DatenarbeiterInnen nicht nur um KI-Systeme zu schaffen, aber auch um diese KI-Systeme am Laufen zu halten.
45:05Eine DatenarbeiterInnen in Kenia verdient ein bisschen weniger als zwei Dollar die Stunde.
45:14There is also another project that we've worked on where you're given dead bodies and with dead bodies that was very graphic because you had to actually zoom in because with these projects, with these artificial intelligence projects, you have to be very meticulous.
45:38Like you do not have to leave even a space or anything. So you zoom in, you have to interact with maybe deep wounds, bullet wounds and all those things and now draw a polygon around the wound and then now say this is a bullet wound or this is a deep gut or all those things that are causing death.
46:01The dead bodies imagine 18 hours a day. And that is not a one day project. So that means maybe a whole month you're doing this project. And usually there's no disclaimer that whatever project you're working on is harmful or stuff like that.
46:28It's just free flow. When this project ends, you get another training and then now you start working on that. There's no prior warning. There's no preparation. It's just...
46:41Usually you're given an NDA. You're just not supposed to even talk to anybody about whatever it is you're doing. We need to have discussions around mental health and make it as convenient and as accessible to everybody because I also suffer from anxiety disorders.
47:09And I am not in a position to have like to pay for mental health services because that is the most expensive sector. We wish to be listened to. And we wish to have policies that work, not just policies that work from one side.
47:28We'll see you next time.
47:30We'll see you next time.
47:31We'll see you next time.
47:35We'll see you next time.
47:37We'll see you next time.
47:39We'll see you next time.
47:41We'll see you next time.
47:43We'll see you next time.
47:45We'll see you next time.
47:46We'll see you next time.
47:47Unsichtbar, unterbezahlt und unter unmenschlichen Bedingungen sorgen diese Menschen dafür, dass Konzerne, die an der Börse Phantastilliarden Dollar wert sind, Software produzieren können, die das Web und Kreativ-Plattformen mit sinnfreien und wertlosen Texten, Bildern, Musikstücken und Videos überschwemmen und dabei so viel Energie verbrauchen wie ganze Länder.
48:13Generative KIs sind Hochstapler. Sie lügen uns an und halluzinieren und werden das weiter tun.
48:20Denn die baldige Ankunft einer hyperintelligenten KI, die all diese Probleme löst, wird wohl ein Märchen bleiben.
48:27All das ist eine Art sich selbst beschleunigende digitale Umweltkatastrophe und sie hat den Kipppunkt vermutlich schon überschritten.
48:36Ist der Traum des freien Internet, des freien Wissens, des gemeinsamen Wachsens und Werdens also ausgeträumt? Was ist schiefgelaufen?
48:44What went wrong?
48:50Yeah, I don't know. I think it's, you know, maybe there's no way to have human society do that kind of thing. Maybe it's impossible. I don't know.
49:02Possibly the most optimistic scenario is that AI takes over the current Internet and it's so distasteful to us that we go somewhere else, either another virtual world or the physical world, that it actually sends us away.
49:17Hopefully, my optimistic take is that people are getting much more disenchanted by the Internet and the digital sphere that they live in and hopefully that galvanizes some kind of broad-based change.
49:29That we just get sick of seeing all of this AI slop and we just say, you know what, I'd rather read a novel that's written by a human than consume another endless scroll, half of which is complete AI bullshit.
49:44At the moment, the solution is a more direct human-to-human connection just because we've reached a limit of the automated system that is now deteriorating.
49:58I think you also see people retreat from social media and go into these smaller groups where they are confident that the people that they're talking to are human.
50:06So that can be a group chat. That can be a Discord group. And yeah, that's certainly a way in which we're retreating from the AI Internet into a more human Internet.
50:17Er lebt also doch noch. Der Wunsch nach einem menschlichen Internet. John Perry Barlow ist noch im Raum.
50:29Musik
50:33Musik
50:41Musik
50:47Musik
50:49Musik
50:53Musik
Comentários

Recomendado