Zum Player springenZum Hauptinhalt springen
  • vor 11 Monaten
In dieser Ausgabe diskutieren die Teilnehmer über die Vorwürfe gegen TikTok in Rumänien, den Exodus von X zu BlueSky und das Verbot von sozialen Medien für Kinder unter 16 in Australien.

Kategorie

🗞
News
Transkript
00:00Hallo und willkommen zu Brüssel, meine Liebe, unserer wöchentlichen Talkshow aus dem Herzen
00:17Europas. Ich bin Stefan Grobe, seien Sie herzlich gegrüßt. Unsere Themen. TikTok sieht sich derzeit
00:25scharfer Kritik in Europa ausgesetzt. Der chinesischen Social-Media-Plattform wird
00:29vorgeworfen, sich in Wahlen einzumischen, und zwar auf Seiten ultra-rechter, pro-russischer
00:35Parteien. Von Georgien über Moldawien bis hin zu Rumänien. In Bukarest haben die Behörden
00:41Brüssel gebeten, eine Untersuchung einzuleiten. Ist das der Anfang vom Ende von TikTok? Und
00:48was ist mit X? Seit der Übernahme der Twitter-Plattform und ihrer Umbenennung durch Elon
00:53Musk strömen Nutzer zu Alternativen wie BlueSky. Medien wie The Guardian und La Vanguardia haben
01:00aufgehört, Artikel in einem Netzwerk zu veröffentlichen, das zu den einflussreichsten
01:05sozialen Medien der Welt gehört. Zumindest noch. Ist X zu einer Spielwiese für Trolle geworden,
01:11ist es an der Zeit, nach neuen Plattformen zu suchen. Fragen an unsere heutigen Gäste. Und
01:18zwar Ina-Marie Stark, Expertin für Digitale Kommunikation, Florian Cortes, Forscher beim
01:24Brüsseler ECMO-Institut und dem European Policy Center und Renate Schlöder, Leiterin des
01:30Europäischen Journalistenverbandes. Nochmals herzlich willkommen Ihnen allen. Bevor wir aber
01:36hier in die Diskussion einsteigen, schauen wir doch noch mal auf den Rumänien-Schocker.
01:42Niemand sah das kommen. In der ersten Runde der rumänischen Präsidentschaftswahlen wurde ein
01:50bis dahin unbekannter nationalistischer Bewunderer von Wladimir Putin plötzlich
01:55zu einem Überraschungssieg katapultiert. Wie war das möglich? Kurze Antwort, TikTok.
02:04Angetrieben wurde Karin Djordjeskus Sprung an die Spitze durch fetzige Clips,
02:13die von dramatischer Musik begleitet wurden. Er wurde als Sprinter gezeigt,
02:19wie er Gegner beim Judo besiegt und auf einem weißen Pferd in einem traditionellen
02:24rumänischen Hemd reitet. Die Behörden in Bukarest wiesen auf Unregelmäßigkeiten
02:31bei TikTok im Zusammenhang mit der Wahl hin und auf Versuche, das Votum zu beeinflussen
02:35und gaben Moskau die Schuld. Das oberste rumänische Gericht hat sich sogar mit dem
02:43Fall befasst, der nun zu einem Test für die neuen Brüsseler Regulierungsbefugnisse für
02:48soziale Medien wird. Ist die Causa TikTok in Rumänien nun ein Fall für Brüssel, Frau Schröder?
02:58Es scheint so, wie wir es gerade gehört haben und auch zu Recht. Ich finde, es ist eine richtige
03:03Sache, dass die Medienbehörde das nach Brüssel geschickt hat. Wie wir alle wissen, haben wir
03:08ja den Digital Service Act, der im Februar dieses Jahres in Kraft getreten ist. Case Studies in
03:17dem Sinne sind jetzt ganz wichtig, weil, und das möchte ich kurz betonen, es geht nicht nur um
03:22TikTok. Die Probleme, die wir haben, X, da kommen wir noch drauf, aber die ganzen Big Tech sozialen
03:31Netzwerke würde ich lieber sagen als soziale Medien, bauen ihre Business Models auf Aufmerksamkeit und
03:41leider bekommen sie die Aufmerksamkeit in erster Linie durch Radikalisierung, durch Falschmeldungen,
03:47durch Provokationen, durch alles, was nicht Fakten sind, denn Fakten sind langweilig.
03:53Fakten sind langweilig. Herr Cortés, was ist denn jetzt zu erwarten von Brüssel in diesem Fall?
04:01In diesem Fall, gestern zunächst wurden Vertreter von TikTok beim Binnenmarktausschuss im
04:08Europäischen Parlament befragt zu der Causa betreffend Rumänien und die Wahlen dort und
04:16parallel dazu wurde die Kommission aktiv und hat eine Anfrage geschickt an TikTok, um mehr
04:26Informationen bereitzustellen, ob sie ihren Pflichten nachgekommen sind, wenn es darum geht,
04:32diese politischen Ads, diese politischen Werbevideos zu überwachen, wie sie verteilt werden, wie der
04:42Empfehlungsmechanismus da ist, ob es da Ungereimtheiten gibt oder ob eine Seite gepusht
04:48wurde, mehr als andere Seiten und das kann man dann im Nachhinein jetzt untersuchen und falls
04:55die ersten Fakten, die TikTok nach Brüssel schickt, falls die nicht zufriedenstellend sind, kann die
05:06Kommission auch eine tiefgreifende Untersuchung starten, um zu sehen, ob TikTok DSA-konform
05:15möglicherweise Sanktionen und möglicherweise Sanktionen zu sechs Prozent des jährlichen
05:22Umsatzes können als Strafe auferlegt werden. Ich gebe das Wort mal zur Reaktion von TikTok. Da
05:32weiß man natürlich die Vorwürfe weit von sich, sowohl die allgemeinen als auch die auf Rumänien
05:37bezogenen. Ein Sprecher erklärt uns gegenüber folgendes. Diese hoch spekulativen Berichte
05:42über die Wahlen sind irreführend, da viele Kandidaten auf TikTok sind und die Gewinner
05:47auch auf anderen Plattformen Wahlkampf gemacht haben. Frau Stark, sind Sie auf TikTok? Ja,
05:54ja, ich bin auf TikTok und auch nicht zu wenig, kann ich zugeben. Okay, haben Sie Angst vor
05:59Datenmissbrauch? Meine ehrliche Antwort wäre wahrscheinlich nein. Und ich glaube, dass ich
06:05dafür den Großteil meiner meiner Altersgruppe spreche und eben auch für den Großteil der
06:11Nutzer auf TikTok. Viele, viele junge Menschen, viele Menschen unter 30, viele Jugendliche,
06:15Millionen Jugendliche in Deutschland, die auf TikTok unterwegs sind. Und ich denke mal,
06:19dass ich dafür uns alle sprechen kann, dass die meisten sich vor der Anmeldung nicht das
06:23Kleingedruckte über die Datenerhebung, die Datenspeicherung und jegliches Gedanken gemacht
06:29haben oder sich das genau durchgelesen haben. Sie sagten, Fakten seien langweilig. Wo steht
06:36denn die? Besteht denn die eigentliche Gefahr von einem unkontrollierten, ungecheckten Netzwerk
06:43wie TikTok? Ja, da sind mehrere Gefahren. Zum einen ist es so, dass insbesondere nicht nur
06:49junge Leute diese, wir reden gerade von TikTok, ein Video nach dem anderen sehen, ohne dabei die
06:56Quelle zu haben. Sie wissen nicht, woher es kommt. Das interessiert Sie vielleicht auch nicht. Es
07:01sind gerade von Rechtsextremen, das haben wir auch in Deutschland bei der AfD, haben wir das auch
07:06gesehen und es wurde auch von vielen untersucht, geschickte Videos, die ungeschickt rechtsextreme
07:14Aussagen in diese Videos hineinbringen, aber in sehr jugendkonformer, freundlicher Sprache.
07:20Hinzu kommt, dass Jugendliche, und da bleibe ich jetzt nicht nur bei den Jugendlichen, immer mehr
07:26nicht mehr die traditionellen Medien, den öffentlich-rechtlichen Rundfunk, der für
07:31Sorgfaltspflicht steht, nicht mehr sehen. Das heißt, die Informationsquellen sind einseitig
07:38und sind nicht vertrauenswürdig in dem Sinne. Und ohne Medienkompetenz ist es meiner Meinung
07:45nach extrem gefährlich, was unsere Demokratien angeht. Herr Kochte, sehen Sie das ähnlich? Ja,
07:51ich sehe das ähnlich. Also die Kommission spricht hier von systemischen Risiken. Und was steckt
07:58hinter dem Begriff? Es geht darum, dass die Reichweite dieser Plattformen immens ist. Und
08:06da sind bestimmte Plattformen wie TikTok, die haben mehr als 45 Millionen monatliche Nutzer
08:14europaweit. Und das heißt, dass was da vor sich geht, kann kein rechtsfreier Raum bleiben, weil
08:21das ja von vielen Leuten massenweise konsumiert wird. Und hier möchte der Gesetzgeber darauf
08:29achten, dass dieses Umfeld auch konform den Fundamental Rights, den Rechten der Europäischen
08:37Union, dass da alles nach Norm abläuft. Ist TikTok, wir reden jetzt über TikTok, ist das
08:45so ein Einzelfall, so ein schwarzes Schaf in der ganzen Branche? Nein, würde ich definitiv nicht
08:51sagen. TikTok ist eine Plattform, die sehr gut mit populistischem, vereinfachten, falschen
08:59Informationen agiert. Der Algorithmus von TikTok präferiert solchen Content. Das ist bewiesenerweise
09:04so. Aber auf anderen sozialen Netzwerken sehen wir ähnliche Bewegungen. Gerade jetzt in verschiedenen
09:12Wahlen in der Europäischen Union kann man eben auf TikTok sehen, dass TikTok so ein bisschen so
09:16die stärkste Kraft ist definitiv. Da ist viel, was noch nicht reguliert ist, das viel, was noch
09:22nicht moderiert ist, wo es auch weiterhin Transparenz braucht von den Plattformbetreibern
09:26selber. Aber ich würde definitiv sagen, dass TikTok da nicht das schwarze Schaf ist oder der
09:32alleinstellende Plattformbetreiber, der so transparent ist. Es gibt eine Reihe von Untersuchungen, die
09:38zeigen, dass es TikTok mit der Wahrheit nicht so genau nimmt. Das haben wir schon festgestellt. Wir
09:44haben in diesem Zusammenhang mit der Journalistin Zahra Badilini gesprochen, die für den weltweit
09:48größten Online-Fact-Checker NewsGuard arbeitet. Das hat sie uns gesagt. Hören Sie mal hin.
09:54Es gibt eine Untersuchung von NewsGuard aus dem Jahr 2022, wonach bei der Verwendung von TikTok
10:03als Suchmaschine und der Suche nach einigen der wichtigsten aktuellen Themen wie den US-Wahlen
10:09oder Covid-19 fast 20 Prozent der Inhalte Falschinformationen enthielten. Diese Art von
10:15Ergebnissen ist besonders beunruhigend, wenn man bedenkt, dass junge Menschen TikTok als
10:20Suchmaschine und tägliche Informationsquelle nutzen. TikTok hat also historisch gesehen
10:25die Angewohnheit, Lügen zu verbreiten. Das sind eindeutige Worte, also Lügen verbreiten. Die
10:36Frage ist natürlich, ist die chinesische Plattform eine Bedrohung für die westliche Demokratie? Kann
10:42man das so sagen? Indem sie also Gehirnwäsche betreibt, Falschinformationen verbreitet,
10:47wie wir gerade gehört haben, Herr Cortez. Also es ist natürlich besorgniserregend,
10:54dass die Eigentumsstruktur so ist, dass hier ein chinesischer Eigentümer am Start ist. Aber das
11:03Problem ist auch bei Twitter vorhanden. Also es geht darum, inwiefern die Kontrollmechanismen,
11:09die im DSA beschrieben werden, ob sie umgesetzt werden durch diese Firma. Und man hat da das
11:20Beispiel Irland auch, wo eine NGO das getestet hat. Die haben Fake News zur irischen Wahl als
11:29politische Werbung versucht zu platzieren bei TikTok, um zu gucken, um die Kontrollen zu umgehen.
11:36Da ging es um Fake News zu Impfungen, wurden die Impfspritzen als Memes hinzugefügt. Da konnte
11:46das nicht als Text detektiert werden. Und insofern, und das ging durch. Also sie hätten diese Fake
11:53News bezahlte politische Ads bei TikTok live gehen lassen können. Hier ist es der Fall,
12:03dass der Kontrollmechanismus durch TikTok nicht gegriffen hat. Und es ist auch besorgniserregend,
12:10falls für TikTok speziell in manchen Ländern bei kritischen Wahlen durch die Eigentumsstruktur
12:18da weniger gemacht wird. Und dann populistische Kandidaten und Chaos in der EU wahrscheinlicher
12:26wird, weil von der chinesischen Eigentümerseite da weniger gemacht wird. In konkreten, speziellen
12:33Wahlen, wo es darauf ankommt, ist es jetzt eine richtungsweisende Wahl, in dem es dem Land darum
12:40geht, näher mit dem Westen zu kooperieren, mit demokratischen Werten der Europäischen Union,
12:47weiter dran zu kommen. Also kleine, klare Manipulationsversuche. Frau Stark, TikTok ist
12:55ja, wir müssen uns das ja mal genau vorstellen. Es ist ja nicht so wie so ein Supermarkt,
12:59das also ständig alles, was im Angebot ist, auf uns niederrasselt, sondern es sind ja ganz
13:04gezielte Informationen, Falschinformationen, die dann da generiert werden. Erklären Sie doch mal,
13:13wie das funktioniert. Ja, das große Problem bei TikTok ist eben die Intransparenz der Plattformen
13:19bezüglich der Algorithmen, bezüglich der Frage, wie wird Content generiert? Ist da künstliche
13:24Intelligenz im Spiel? Ist das gekennzeichnet, wenn künstliche Intelligenz im Spiel ist? Und
13:28auch unter welchen Berücksichtigungen, nach welchen Faktoren werden mir Videos vorgeschlagen? Werden
13:33die in meine Timeline, auf meine Startseite gespült? Und das große Problem bei TikTok im
13:38Vergleich zu anderen sozialen Netzwerken ist eben, dass der Algorithmus auf Interaktion basiert. Also
13:45da geht es gar nicht wie auf anderen Plattformen um Gefällt-mir-Angaben, um Likes, mit denen ich
13:50signalisiere, was ich hier gesehen habe, gefällt mir, da stimme ich zu. Sondern die Interaktionen,
13:55die die Videos dann höher pushen in dem TikTok-Algorithmus, können zum Beispiel sein,
13:59dass ich ein Video zu Ende geschaut habe. Was bei TikTok schnell passiert, da die Videos relativ
14:04kurz sind und eben, wie schon besprochen, oft polemischer, populistischer Content, der mich
14:10vielleicht auch sogar ein bisschen, sogar ein bisschen catcht mit irgendwelchen reißerischen
14:14Aussagen. Konkret, also habe ich ein Video 20 Sekunden zu Ende geschaut, das zählt als eine
14:19positive Interaktion für den TikTok-Algorithmus. Ich scrolle vielleicht weiter, ich scrolle wieder
14:24zurück zu dem Video. Stimmt das, was ich da gerade gesehen habe? Ich erkenne das als Fake News, ich
14:28möchte es mir aber nochmal anschauen. Eine weitere Interaktion, die das Video weiter hoch pusht.
14:33Eventuell teile ich das Video sogar mit jemandem, schicke das an irgendwelche Freunde,
14:37sage vielleicht, hey, schau dir das mal an, das ist doch Quatsch, was hier erzählt wird,
14:40das habe ich doch selber total einfach durchschaut. Eine weitere Interaktion für den TikTok-Algorithmus.
14:45Und viel Content auf TikTok ist mittlerweile sogar ganz klar danach aufgebaut, es zielt darauf ab.
14:52Das nennt man dann Ragebait. Das heißt, die Plattform filtert sozusagen Inhalte ganz gezielt
14:59nach ihrem angeblichen Interesse. Je mehr ich Inhalte gucke über Belgien, desto mehr kommt
15:09auch über Belgien an mich heran und nicht über Luxemburg. Genau, das ist soweit, wie TikTok seine
15:15Algorithmen, seine Mechanismen, wie der Algorithmus funktioniert, offen darlegt. Das heißt, das ist
15:21soweit, wie wir alle nachvollziehen können. Das würde ich aber ganz klar sagen, ist nur die Spitze
15:24des Eisbergs, was den ganzen Algorithmus betrifft. Ja, wir haben schon gehört, dass TikTok-Vertreter
15:30waren im Europäischen Parlament diese Woche. Was das bringen wird, können wir gleich nochmal
15:36darüber sprechen. Es wird natürlich längst überall in der Politik diskutiert, in Europa, in den USA.
15:42Die schwedische liberale Politikerin Simona Mohamsson ist Menschenrechtlerin und beschäftigt
15:48sich ausgiebig mit sozialen Medien. Wir haben sie um ihre Einschätzung gefragt. Das hat sie gesagt,
15:53von sich mal. Wir haben lange geglaubt, dass TikTok ein soziales Netzwerk wie andere ist,
16:01aber das ist nicht der Fall. Es handelt sich um eine Plattform, die der kommunistischen Partei
16:06Chinas gehört und von ihr betrieben wird. Und nun sehen wir, wie der chinesische Algorithmus
16:11zusammen mit russischen Desinformationen eingesetzt wird. Dies stellt einen sehr
16:19gefährlichen Sprengstoff für die Demokratie dar. TikTok wird wieder einmal einfach nur sagen,
16:24das sind nicht wir und hoffen, dass niemand reagiert. Ich denke, wir sollten dies ganz
16:29klar als eine sanfte Art der Kriegsführung betrachten. Eine sanfte Art der Kriegsführung,
16:37Frau Schröder. Das ist natürlich schon ein anderes Kaliber als irgendwelche Falschinformationen.
16:43Kriegsführung, sanfte Art der Kriegsführung. Und wie reagieren wir darauf? Mit einer Anhörung
16:48vor dem Europäischen Parlament? Ist das genug? Was kann sowas bringen? Ich möchte jetzt noch mal
16:53kurz davor sagen, gut, von Information Warfare reden wir schon seit langem. Nicht zuletzt seitdem
16:58Putin die Ukraine angegriffen hat, ist er sehr erfolgreich damit. Ich möchte aber auch kurz
17:04noch mal betonen, ich finde, wir spezialisieren uns momentan ein bisschen zu sehr auf TikTok,
17:09was einfach ist, weil China dahinter ist. Die anderen kommen gleich dran. Ja, aber wir müssen
17:15das Ganze global sehen. Es geht nicht anderen. Wir reden von X, aber allgemein können wir nur
17:19sagen, dass alle sozialen Netzwerke auf dieses Aufmerksamkeitsmodell, worauf sie angesprochen
17:26haben und ich vorher basieren, dass demokratiefeindlich ist. Und ob wir da nun Information
17:32Warfare haben oder demokratiefeindliches Finanzierungsmodell, geht für mich in die
17:38gleiche Richtung. Die EU hat angefangen und das ist sehr gut so mit der DSA und mit der DMA. Ob
17:44das genug ist, wird sich in den nächsten Jahren herausstellen, weil jetzt müssen sie erst mal die
17:50Implementierung machen. Es muss auf nationaler Ebene geschehen. Es gibt diese Digital Coordinators.
17:56Da ist so einiges, was noch nicht so richtig funktioniert. Und in ein paar Jahren wird die
17:59Kommission dann einen Bericht legen und sehen, was hat funktioniert, was hat nicht funktioniert.
18:03Wo sind, wie wir gesagt haben, die systematischen Risiken, weil das ist alles auch noch so ein
18:08bisschen wischiwaschi geschrieben, auch was den Medienpluralismus angeht und den Job des
18:15Journalismus immer mehr gefährdet auf vielen Ebenen. Ja, eine Anhörung reicht nicht.
18:20Das hört sich für mich so an, als dass wir da so ein bisschen hinterherlaufen der Entwicklung.
18:26Denn wir sehen es bei jeder Wahl, die jetzt vor der Tür steht. Deutschland im Februar
18:31werden wahrscheinlich ähnliche Probleme haben. Herr Cortez, muss da aufs Tempo gedrückt werden?
18:36Fairerweise muss man sagen, dass es da andere Instrumente und Aktivitäten von europäischer
18:43Seite bereits gibt. Und zwar der europäische Außendienst hat schon seit einigen Jahren eine
18:50strategische Arbeitsgruppe Ost und ein Frühwarnsystem über Desinformationskampagnen in
18:57diesen östlichen europäischen Ländern. Und man hat da auch eine Datenbank EU versus
19:07Desinfo zum Beispiel, wo kategorisiert wird, inwiefern Fake News, politische Fake News
19:16verstreut werden. Insofern gibt es diese Aktivitäten. Ist es genug? Wahrscheinlich nicht.
19:22Andere Aktivitäten, die da nennenswert sind, sind diese Factchecker Organisation. Und hier vor
19:30allem die europäische Beobachtungsstelle für digitale Medien. Die hat 14 Hubs zerstreut
19:37über ganz Europa. Und das sind Factchecker. Und die sind auch dafür da, die Kompetenz,
19:43die digitale Kompetenz der Bürger und Behörden zu stärken. Insofern wird da schon was gemacht.
19:49Vielleicht muss da mehr Energie rein. Und das versucht von der Leyen mit ihrer Idee eines
19:56Demokratie Schildes. Und bisher weiß man nicht, was konkret alles kommt, was darunter fallen wird.
20:06Aber ich glaube, diese Bemühungen werden intensiviert, gegen anzusteuern, gegen solche
20:12fast hybride Kriegsführung. Direkt dazu? Ja, direkt dazu. Ich würde sogar weitergehen und
20:21sagen, dass es nicht nur an weiteren Maßnahmen mangelt, sondern auch an dynamischeren Maßnahmen.
20:28Also ich glaube, man darf wirklich die Zeitspanne nicht außer Acht lassen, dass Maßnahmen, die wir
20:32bereits haben, angepasst werden müssen, damit sie weiterhin dynamischer auf die jeweilige Situation
20:38abgestimmt werden können. Weil eben Plattformen wie TikTok super schnell agieren und super schnell
20:43neue Trends kreieren können, auf die eben diese Maßnahmen abgestimmt werden müssen. Also nicht
20:48nur technische Maßnahmen, sondern auch rechtliche Maßnahmen und auch, wie Sie schon angesprochen
20:53haben, bildungspolitische Maßnahmen. Da geht es nicht nur um, haben wir sie, sondern auch,
20:57wie agil und schnell sind sie. Frau Schröder? Ich wollte nur kurz hinzufügen, das ist alles
21:03wunderbar. Aber wenn wir es nicht schaffen, den unabhängigen Journalismus zu stärken,
21:07der für uns immer noch die beste Antidote zur Desinformation ist, wenn wir es nicht schaffen,
21:12mit Medienkompetenz auch junge Leute wieder in diesen unabhängigen Journalismus zu kriegen,
21:18werden wir es nicht schaffen. Von daher reden wir immer von einem holistischen Ansatz. Democracy
21:24Shield ist gut, aber wir müssen auch das EU-Haus intern schützen. Sehr klare Ansage. Vielen Dank
21:30für diese erste Runde. Wir machen jetzt eine kleine Pause und danach von Twitter zu X und
21:36jetzt zu Blue Sky. Der Kampf um Einfluss auf sozialen Medien. Bleiben Sie bei uns.
21:49Willkommen zurück zu Brüssel, meine Liebe. Unsere Gäste sind immer noch Florian Cortez,
21:54Ina-Marie Stark und Renate Schröder. Haben Sie genug von Elon Musk und seiner nervigen Werbung
22:01für Donald Trump und Siedlungen auf dem Mars? Dann ziehen Sie doch von X zu Blue Sky um. So
22:07mögen viele gedacht haben, als sie die ehemalige Twitter-Plattform verlassen und Blue Sky einen
22:12überraschenden Popularitätsschub verschafft haben. Medienberichten zufolge erhält die Alternative
22:18zu X täglich etwa eine Million neue Follower. Inzwischen sind es 24 Millionen. Blue Sky ähnelt
22:26in Form und Aufmachung dem einstigen Twitter. Was nicht weiter verwundert, denn kreiert wurde
22:31die Plattform von einem früheren Twitter-Chef. Ist also reine Machen in den sozialen Medien
22:38angesagt? Ist es an der Zeit, X zu verlassen? Oder fördert das nur die Silouisierung unter
22:44den Nutzern? Frau Schröder. Also für uns und hier spreche ich von dem Europäischen
22:50Journalistenverband. Wir haben uns entschieden, X zu verlassen. Aus dem Grund, dass wir uns nicht
22:57mehr wohlfühlen auf einer Plattform, wo in erster Linie alles, was gegen unsere fundamentalen Rechte
23:05steht, passiert. Das spürt man auch. Ich war auch bis kürzlich auf Twitter und ich konnte meine
23:12Feeds wirklich nicht mehr sehen und hören. Und so ging es vielen anderen, zusammen mit vielen,
23:17wie es gesagt wurde, Zeitungen, The Guardian und anderen, hat die EJF X verlassen und hat auch
23:24ihre Mitgliedsorganisationen empfohlen, das so zu tun. Auch der DJV zum Beispiel, der 15 Jahre auf
23:31Twitter sehr aktiv war, verlässt auch X. Und zwar werden wir das offiziell am 20. Januar machen.
23:38Denn es kann nicht sein, dass diese Verbindung des immer noch mächtigsten Präsidenten der USA und
23:45des reichsten Mannes, der Besitzer von X ist, Elon Musk, diese Einigung und jetzt auch aktive Rolle
23:54in der US-Regierung ist eine, wir reden immer von Media Capture, ist eine Social Media Capture,
24:00die wir so noch nicht gehabt haben. Gehen Sie denn zu Blue Sky? Wir sind auf Blue Sky schon.
24:05Okay. Frau Stark, was ist mit der Siluisierung? Wenn also die Guten jetzt ihre eigene Plattform
24:11haben und die Bösen, ich vereinfache natürlich, dann reden ja alle nur wieder aneinander vorbei.
24:19Genau, genau, das denke ich auch. Ich denke, dass das natürlich nachvollziehbar ist,
24:24dass viele Privatpersonen und Firmen und Politiker und Journalisten besonders genau
24:29die Plattform Twitter verlassen. Ich bin seit Jahren nicht mehr auf Twitter, auch weil mir
24:34das einfach nicht mehr gefallen hat, was mir da angezeigt wurde, wie die Plattform aufgebaut war.
24:38Ich würde aber ganz konkret davor warnen, Twitter als ganzem Kollektiv den Rücken zuzudrehen,
24:45einfach weil diese Filterblasen, diese inhaltlichen Echokammern, die auf Twitter bestehen,
24:51die wir jetzt hier gerade alle kritisieren, weil sie unmoderiert und untransparent sind,
24:55die bleiben auf Twitter ja weiterhin bestehen. Heißt, die Menschen, die nicht den Wechsel zu
24:59Blue Sky machen, bleiben weiterhin auf Twitter bestehen und man kann nicht Twitter als eine
25:04ganze Plattform einfach dann unbeobachtet mit den restlichen Menschen dort belassen. Deswegen
25:10glaube ich, dass ein Umzug nachvollziehbar ist von einer Plattform auf die anderen,
25:14aber es braucht weiterhin Regulierung für beide Plattformen. Herr Korte, ist Umzug ja oder nein?
25:19Ich sage ja und zwar hat es ja auch nicht vorher funktioniert, dass sich ja gegenseitige Meinungen
25:31da zueinander gefunden haben auf Twitter. Insofern, wenn der Algorithmus auf X jetzt,
25:38aufbauend auf was Sie gesagt haben, Frau Stark, ist der Algorithmus bei X auch darauf angelegt,
25:48Engagement zu schaffen und ähnliche Meinungen, krasse Meinungen, die vorher mit deinen Interessen
25:58beeinflusst haben, wieder zu reflektieren in deinem Feed. Insofern wird dieser Meinungsausgleich
26:07ja auch sowieso nicht stattfinden, auch wenn man da drin bleibt. Ja, es geht ja auch weniger um
26:12einen gepflegten politischen Diskurs als mehr oder weniger das Bewerfen mit politischen Slogans.
26:20Da ist ja kein, es gibt ja eigentlich, also meiner Meinung nach ist die Gesellschaft noch
26:25gespaltener geworden nach der Existenz von Sozialdemokraten. Ganz kurz, einer der sich
26:31mit jeder Art von Tech-Themen auskennt ist Alejandro Tauber, Hausgeber des EU Observers.
26:36Wir haben ihn nach der Konkurrenz oder der Coexistenz von X und Blue Sky gefragt.
26:41Das ist seine Antwort. Ich glaube nicht, dass es ein entweder oder ist. Macron und Ursula von der
26:49Leyen sind auch auf Instagram und sie hatte letzte Woche auch ein Blue Sky-Konto eröffnet.
26:54Es ist nicht nur die Giftigkeit von X. Ich denke vielmehr, dass die Art und Weise,
26:58wie Blue Sky als offene Plattform aufgebaut ist, wichtiger sein könnte als Blue Sky als
27:04eigenständiges Unternehmen. Die Tatsache, dass du deine Follower mitnehmen und woanders hinziehen
27:09kannst. Die Tatsache, dass du deine Daten besitzt. Die Tatsache, dass du die Plattform weiter ausbauen
27:15kannst, um sie zu etwas zu machen, das vielleicht für mehr Menschen zugänglich ist oder das
27:19verschiedene Arten von Inhalten zeigen kann. Und diese Art von offener Struktur zu haben ist meiner
27:25Meinung nach sogar noch wichtiger, als von X wegzukommen, weil es dort eine Menge Trolle gibt.
27:30Ja, Frau Schöder, beeindruckt Sie diese Argumente?
27:36Ich wollte nur ganz kurz sagen, wir frieren unsere Konten ein. Also wir werden jetzt,
27:43wie ich gesagt habe, nicht auf X bleiben, aber wir sind passiv da. Was ich genau,
27:49was er gesagt hat, was ich... Entschuldigung, das heißt, wie kann ich mir das vorstellen?
27:52Wir werden nichts mehr aktiv posten, aber die Konten bleiben da. Das ist ja auch ziemlich viel
27:59Information. Und es war ja auch sehr viel Gutes. Was ich noch ganz kurz sagen wollte,
28:04ich bin ganz seiner Meinung, was Blue Sky jetzt versucht, ist was ganz Neues. Blue Sky hat uns
28:09angeschrieben als größter Journalistenverband und wir haben diese Woche ein Gespräch mit ihnen,
28:13um zu sehen, wie wir insbesondere für Journalisten die Arbeit noch besser machen können. Da ist auch
28:19schon einiges sehr Interessantes passiert, dass jetzt also alle Journalisten vom BBC,
28:24von Guardian, von den großen Zeitungen auch in Deutschland, die ihre Konten zeigen mit
28:29einer Transparenz, die sehr interessant ist. Frau Stark, wie gesagt, 24 Millionen bei Blue Sky
28:36heute. Das ist ein Bruchteil dessen, was X hat, kann sich aber noch steigern und wahrscheinlich
28:44braucht es einen Moment, wo die kritische Masse dann erreicht ist. Möglicherweise, wenn also ein
28:50ganz prominenter Teilnehmer sagt, ich gehe jetzt zu Blue Sky. Wer könnte das sein? Die EU-Kommission,
28:57der Vatikan oder Hollywood? Ganz kurz. Das ist eine gute Frage. Ich glaube, gerade, wie auch
29:04dem Einspieler ja schon gezeigt, viele Menschen nehmen das so ein bisschen als Anreiz. Ja,
29:08der und der ist ja auf Blue Sky und wenn der Politiker dort vertreten ist, dann wird das ja
29:13eine transparente, gute Plattform sein. Ich persönlich würde das nicht als Anlass nehmen,
29:17nur weil ein Politiker, der Papst oder meine Eltern jetzt auf Blue Sky sind. Warten wir mal ab,
29:23was alles kommt. Das soll es zu diesem Thema gewesen sein. Vielen Dank an unsere Gäste und
29:26an unsere Zuschauer. Bleiben Sie bei euronews. Willkommen zu Brüssel, meine Liebe. Ich bin
29:39Stefan Grobe. Meine Gäste sind Renate Schröder, Florian Cortez und Ina-Marie Stark. In Australien
29:45ist die Labour-Regierung mit einem radikalen Schritt weltweit in die Schlagzeilen geraten.
29:50Wer noch nicht 16 Jahre alt ist, soll künftig keinen Zugang mehr zu sozialen Medien haben.
29:54Damit sind Plattformen wie TikTok, Instagram und Facebook für Kids tabu. Junge Menschen sollen so
30:00vor Mobbing und Selbstmordversuchen geschützt werden. Auch die Opposition stimmte dem
30:05Gesetzesentwurf im australischen Parlament zu. Australien bekommt also die weltweit strengsten
30:12Jugendvorschriften für den Umgang mit sozialen Netzwerken. Ein Vorbild für Europa, Herr Cortez?
30:18Also das baut auf, auf ein Buch von Jonathan Haidt, einem New York University Professor. Und
30:28er will empirisch darlegen und zeigen, dass intensive Nutzung von sozialen Medien durch
30:35Jugendliche, diese Altersgruppe, zu mentalen Schäden führt. Und er hat Politikempfehlungen
30:42und eine dieser Empfehlungen wurde jetzt aufgegriffen durch Australien. Und dass man
30:48keine Konten haben darf, wenn man jünger als 16 ist. Ist das gut oder nicht? Es gibt natürlich
30:56auch Kritik an Jonathan Haidts Buch, die Generation Angst. Und zwar können andere
31:04Forscher darauf hinweisen, dass es vielleicht keinen kausalen Zusammenhang gibt. Dass es nur
31:08eine Korrelation und dass die sozialen Medien nicht der primäre Faktor sind, die Angstzustände
31:15auslösen bei Jugendlichen. Viele Eltern würden dem wahrscheinlich widersprechen. Interessant ist,
31:22das neue Gesetz hat ja riesige Aufmerksamkeit erregt, überwiegend positive. Und zwar unter
31:27Politikern, Eltern, aber auch unter Experten. Einer davon ist der irische klinische Psychologe
31:34David Coleman, der sich seit mehr als 20 Jahren mit der wissenschaftlichen Erforschung von
31:39psychischen Störungen und Zuständen von Kindern und Jugendlichen befasst. Wie sieht er das neue
31:45Gesetz? Wir haben ihn gefragt. Das ist großartig. Ich würde mich freuen, wenn etwas ähnliches auf
31:52die ganze Welt ausgedehnt werden könnte. Europa könnte absolut davon profitieren, wenn wir wirklich
31:57vorankommen und versuchen würden, nicht nur die sozialen Medien einzuschränken. Ich fände es toll,
32:01wenn wir sogar den Zugang zu Smartphones für junge Teenager beschränken könnten. Wir sehen
32:06immer häufiger, dass junge Menschen in ihren Zimmern isoliert sind, online, auf ihren Handys
32:10oder Computern. Und wir wüssten, dass das für die Eltern eine Menge Stress bedeutet. Dies verursacht
32:15eine Menge Konflikte. Und so kommt es, dass sich die jungen Leute fast in die Online-Welt zurückziehen
32:21und die Eltern sind nicht darauf vorbereitet. Wie soll man damit umgehen, mit dieser Online-Isolation
32:29als Elternteil? Ich bin auch Elternteil. Ich habe auch meine Kinder gefragt, was sie zu diesem
32:34Gesetz halten. Interessanterweise fanden sie es alle gut. Wie alt sind die? Die sind inzwischen
32:38natürlich älter. Na gut, dann betrifft es die nicht mehr. Aber sie leiden auch unter diesem
32:46ständigen Drang. Da haben wir vorher auch drüber gesprochen. Ich finde die Idee richtig, weil es
32:52geht ja eindeutig nicht nur um mentale Probleme. Es geht um Konzentrationsprobleme. Das merke ich
32:58schon. Niemand kann sich mehr richtig auf die Dinge konzentrieren. Und einen Ban zu machen, ist
33:06vielleicht sinnvoll. Ob er wirklich funktioniert, weiß ich nicht. Ich weiß, in den meisten
33:09europäischen Ländern haben wir ja auch den Ban ab 13. Und ich weiß es selber, wie sie in der Lage
33:15sind mit geändertem Konto und was auch immer. Die Eltern müssen zustimmen. Oder die Eltern müssen
33:20zustimmen. Manchmal tun sie es auch, weil sie eben gewillt sind, dass die Kinder sich beschäftigen.
33:25Die Eltern haben natürlich auch eine Frage. Frau Stark, es gibt eine Umfrage aus Deutschland,
33:30Jugov, im Auftrag von dpa. Da haben 77 Prozent, also vier von fünf Befragten ungefähr, für sich
33:38für ein Social-Media-Verbot wie in Australien ausgesprochen. Sie haben das Thema Angst erwähnt
33:45vorhin. Was sagen uns diese Zahlen? Das war auch gleich mein erster Gedanke, dass, wie Herr Cortez
33:53das bereits erwähnt hat, dass eine Angst schürt, eine auf jeden Fall nicht unbegründete, aber eine
33:59unpräzise Angst schürt vor dunklen Räumen, vor der Isolation. So ein bisschen das Bild, dass das eigene
34:07Kind im Zimmer sitzt und mit dem Handy Zugang zu einer grausamen Welt hat. Und ich glaube, so
34:15polemisch darüber zu sprechen, ist auf jeden Fall nicht zielführend. Und ich finde auch selber
34:20persönlich, dass da ein Ban, das Verbot von sozialen Netzwerken für Jugendlichen auf jeden Fall
34:26nicht zielführend ist. Weil, wie man ja gesehen hat, von der Bewegung von einer Plattform auf die andere
34:30Jugendliche bewegen sich im Internet. Dadurch werden weniger Hellräume, sondern im Gegenteil
34:35mehr Dunkelräume geschaffen, die dann für Elternteile, für Regulatoren, Institutionen, für die EU noch
34:43weniger einsehbar sind. Interessant, dass eine der kritischen Stimmen zu diesem australischen
34:49Gesetz kommt ausgerechnet von UNICEF, dem Kinderhilfswerk der Vereinten Nationen. Die haben
34:55davor gewarnt, dass Kinder und Jugendliche nun in verdeckte und nicht regulierte Online-Räume
35:01gedrängt würden, wenn sie keinen Zugang mehr hätten zu TikTok, Facebook etc. Klingt irgendwie einleuchtend.
35:08Die Gefahr ist auf jeden Fall da, dass sie ihre Wege finden, das Ganze zu umgehen. Das ist ganz
35:14klar. Ich finde auf der einen Seite, ich bin da zwiegesprochen, finde ich das gut. Aber auf der
35:18anderen Seite ist es vielleicht auch, machen wir uns damit zu einfach mit einem Ban. Ich meine,
35:22wir sind ja schon soweit, wir sind ja alle drin. Es ist schwierig, da rauszukommen. Es kostet Geld.
35:28Es kostet kein Geld zu bannen in dem Sinne. Das wird die Plattform kosten. Aber es kostet Geld,
35:33Medienkompetenz zu machen. Es kostet Geld, in die Schulen zu gehen und mit den jungen Leuten zu
35:38besprechen, was ist falsche Information, was kann man tun, wie kann man es wirklich positiv nutzen
35:44und wie gefährlich ist es? Da müssen wir in Europa und überall viel mehr investieren.
35:51Verbote sind ja häufig dazu da, dass man sie umgeht und findige Teenager denken,
35:57dass es wahrscheinlich auch gelingen. Was kann man denn stattdessen machen? Frau Oschröder sagte,
36:02Medienkompetenz verstärken, Kindern wieder mehr Bücher zu Weihnachten schenken oder wie kommen
36:07wir da? Gibt es da einen positiven Ansatz? Ich denke eher, dass der Ansatz darin liegt,
36:13diese Plattform unter die Lupe zu nehmen und zu regulieren. Und das wird auch getan unter dem
36:21DSA. Richtlinien für diese Plattformen, wie sie umgehen sollen mit Minderjährigen, werden gerade
36:30erarbeitet unter dem DSA. Und das ist wichtig und das ist dann wahrscheinlich nicht so radikal
36:38und drastisch wie ein Komplett-Ban, aber vielleicht zielführend, indem man das weiter beobachtet,
36:46die Räume, in denen sich diese Kinder und Jugendliche bewegen. Genau das werden wir tun
36:51in der nächsten Zeit. Wunderbares Schlusswort. Wir sind am Ende von Brüssel, meine Liebe,
36:56angelangt. Vielen Dank an unsere Runde hier im Studio und an unsere Zuschauer zuhause. Wenn Sie
37:03die Unterhaltung fortsetzen möchten, egal zu welchem Thema, schreiben Sie an brüsselmeineliebe
37:07at eurynus.com oder kontaktieren Sie uns in den sozialen Medien. Das war's für heute. Ich bin
37:14Stefan Grube. Ihnen eine angenehme Woche. Bis bald.
Schreibe den ersten Kommentar
Kommentar hinzufügen

Empfohlen