Single Blog Title

18.
Okt

„Der Text im Netz stirbt“

Hossein Derakhshan, Vater der iranischen Bloggerszene, saß aus politischen Gründen sechs Jahre lang im Gefängnis. Im Interview beschreibt er, wie er das Netz seit seiner Haftentlassung 2014 erlebt – und worin der Unterschied besteht zwischen dem Fernseh-Internet und dem Bücher-Internet. Von Johannes Drosdowski

zf16_3406-c_matthias-kestel

Herr Derakhshan, vor ihrer Haft war das Internet viele Jahre lang ihr Zuhause. Wie war es dort?

Es war voller Blogs. Viele Leute hatten Blogs, schrieben und unterhielten sich dort. Je weiter oben man in den Rankings stand, desto besser. Dann wurde man noch häufiger gelesen. Alles wegen dieser kleinen Teile. Diese blauen, unterstrichenen Stückchen Text, den Hyperlinks. Die man anklicken konnte und dann wurde man weitergeschickt auf eine andere Seite, und man wusste nicht mal, wohin! Sie waren die Basis und auch die Währung im Internet. Sie sind Seele und Herz der Blogs gewesen. Man startete auf einer Seite und zwei Stunden später endete man auf einer komplett unbekannten! Es war eine Reise mit unermesslich vielen Überraschungen. Links waren die Unterhaltungen zwischen den Autoren. Man schrieb über etwas, wozu jemand anderes etwas geschrieben hat und dann verlinkte man es. Es war eine sehr tiefe Art der Kommunikation, sehr bereichernd und ernst.

Gibt es diese tiefen Unterhaltungen denn heute nicht mehr?

Nicht mehr so häufig. Die Kommunikation ist doch sehr abgeflacht. Das liegt auch an den sozialen Netzwerken wie Facebook und es betrifft gerade die Konsumenten.

Wie haben die sozialen Netze die Kommunikation verändert?

Früher konnten sie, genau wie jetzt auch, Kommentare verfassen. Aber die Dynamik war eine andere. Man konnte nicht so leicht Kommentare abgeben, man konnte sie nicht so einfach löschen. Man konnte sie erst absenden, wenn man sie verifiziert hatte, man musste sie also noch einmal lesen. Deswegen gab es weniger Beleidigungen, weil die Kommentare warten mussten bevor sie veröffentlicht wurden.

Und natürlich haben sich auch die Inhalte verändert. 95 Prozent der Nutzer von sozialen Netzwerken können oder wollen keine ernsten Inhalte. Sie wollen Videos und Bilder, aber keinen Text, besonders keinen politischen. Disco Systems hat kürzlich veröffentlicht, dass 70 Prozent des aktuellen Datenverkehrs Bilder und Videos sind im Jahr 2020 werden es sogar 90 Prozent sein. Der Text im Netz stirbt. Das muss zum Beispiel auch Twitter erleben. Das soll nun verkauft werden. Aber niemand mag es mehr haben.

Woran liegt das?

Das Sterben des Textes ist vor allem auch ein Bildungsproblem. Die Menschen sind  nicht mehr in der Lage, längere Stücke zu lesen und zu verstehen. Es wird ihnen nicht beigebracht. In Nordeuropa ist das anders, aber an den meisten anderen Orten fehlt die Fähigkeit, tiefe Inhalte aufzunehmen. Man ist ja auch fast nur noch auf Facebook. In manchen Ländern wie etwa Indien und Brasilien geht das so weit, dass die Hälfte der Menschen ernsthaft glaubt, dass Facebook das Internet ist, dass es nichts anderes gibt.

Müssen wir ernste und politische Inhalte einfach ansprechender verpacken?

Ich denke, wir haben es hier mit einem Problem zu tun, das wir nicht ändern können. Der Einzelne kann gar nichts machen. Es ist die Bildung, die sich wieder verbessern muss, die Bereitschaft mehr als nur Videos und Bilder zu konsumieren. Früher etwa waren die Blogs dominiert von Text. Es gab nur wenige Videos und Fotos. Man wusste nicht mal, wie der Blogger aussieht. Weil es nicht wichtig war! Der Text und die Diskussionen und Streitereien waren das wichtige. Heute ist das anders.

Viele Nutzer bewegen sich in ihrer Filter-Bubble. Da diskutiert es sich ja ohnehin schlecht.

Das liegt an den Algorithmen. Sie sind die Philosophie des Streams: Das, was man auf Facebook sieht, auf Twitter, bei Instagram und all den anderen Netzwerken, die nach diesem Konzept funktionieren. Ein konstanter Fluss algorithmisch gewählter Inhalte. Unglücklicherweise folgen all die Algorithmen aber einer einzigen bestimmten Logik. Algorithmen sind eigentlich Entscheidungen. Sie sind eine Simulation menschlicher Intelligenz, indem sie sagen „entweder dies oder das“. Und sie könnten nach vielen unterschiedlichen Logiken funktionieren, aber sie folgen nur einer.

Nämlich welcher? 

Popularität und Neuheitsgrad. Alles, was populär ist, wird privilegiert. Wenn man etwas über Bayern postet in München, wo viele Bayern-Fans sind, dann wird dieser Post vermutlich viel häufiger von anderen Menschen gesehen als wenn man einen Post über Dortmund absetzt. Der würde vielleicht gar nicht sichtbar sein. Minderheiten-Ansichten, die das Minimum an Popularität nicht erreichen, werden unsichtbar gemacht. Und die Neuheit entscheidet mit. Alles, was neu ist, wird privilegiert. Es ist sehr selten, dass man etwas weit oben sieht, was schon vor einer Woche oder einem Monat passiert ist. Obwohl auch alte Beiträge sehr wichtig sein könnten.

Wozu führt dieser Mechanismus? 

Die Algorithmen erschaffen einen Raum, in dem man verhätschelt wird, nicht gefordert – alles basierend auf den eigenen Gewohnheiten. Ich nenne diesen Ort Komfort-Kokon, andere Leute nennen ihn Filter-Bubble. Man wird viel weniger herausgefordert und man ist auch viel weniger überrascht! Uns wird die Spannung geklaut.

Liegt das auch daran,  dass viele Nutzer Facebook kaum noch verlassen? Die meisten Inhalte sind ja schon eingebettet.

Facebook mag keine Links. Weil Links dich raus bringen aus der Facebook-Welt und das ist ganz offensichtlich schlecht für die Werbung. Es tut also alles, um dich davon abzuhalten, Facebook zu verlassen. Deswegen gibt es zum Beispiel Instant Articles. Man wird nicht mehr weitergeleitet zur Seite der New York Times, wenn man draufklickt. Und jetzt kommt das Problem: Egal woran du glaubst – in diesem Komfort-Kokon wird es verstärkt werden. Jedem von uns passiert das! Sogar radikalen Nationalisten oder Religiösen. Egal woran sie glauben: Der Algorithmus verstärkt es. Zur gleichen Zeit werden Minderheiten-Ansichten einfach stumm geschaltet, denn sie sind nicht populär.

Vor allem in der politischen Debatte scheinen sich mittlerweile bestimmte Gruppen im Netz kaum noch mit einander auszutauschen. Zumindest nicht ohne Beschimpfungen.

Als ich nach meiner Haft endlich wieder das Internet sah, dachte ich mir: Das ist kein Internet mehr. Das ist Fernsehen! Das neue Internet legt Wert auf Emotionen. Nicht auf Vernunft. Früher hat man zu Blogeinträgen kommentiert „Stimmt nicht“, seinen Standpunkt erklärt und dann zum Beweis verlinkt. Heute sagt man nur noch „Das mag ich!“ oder „Das mag ich nicht“. Man kann nur noch seine Emotionen zeigen. Und mit Emotionen lässt es sich schwer argumentieren. Es kann also zu keiner Diskussion mehr kommen. Deswegen nenne ich das neue Internet das Fernseh-Internet. Das alte nenne ich das Bücher-Internet. Hier ging es noch um Vernunft.

Welche Konsequenzen hat das für die Gesellschaft?

Die wichtigste Konsequenz ist die Reduzierung von Politik zu etwas wie Reality-TV. Das nutzt besonders den Demagogen. Schauen sie sich an, wie Donald Trump, der ein Produkt des Fernsehens war, Fernsehen jetzt benutzt. Kein sachliches Argument, keines seiner politischen Vorhaben konnte ihn so sehr beschädigen, wie diese Regenbogenpresse in Filmform. Das ist absolutes Reality-TV! Das neue Internet ist die Zukunft des Fernsehens. Deswegen ist es für die Demagogen der Welt so nützlich. Ich denke es wird mehr und mehr Menschen wie Trump geben, die das Internet genauso wie das Fernsehen ausnutzen, um Massen zu manipulieren, um gewählt zu werden und dann ihren eigenen Interessen zu folgen. Wie Berlusconi oder auch Le Pen.

Das klingt alles sehr pessimistisch. Können wir Nutzer denn nichts daran ändern?

Auf der persönlichen Ebene können wir nichts machen außer die Algorithmen zu verwirren. Was tatsächlich ziemlich spaßig ist. Wenn nur fünf Prozent der Menschen ihr Online-Verhalten ändern, es komplett wirr gestalten: Sie liken, was sie nicht mögen, teilen willkürlich Beiträge. Schon ist der Algorithmus verwirrt. Sie würden Big Data kontaminieren! Die Großen könnten ihren Daten nicht mehr trauen. Und das ist tatsächlich ein Problem für sie. Denn damit zerstört man ihr Geschäft. Das ist es, was wir tun können. Oder stell dir vor: Ein Plug-In, das auf Google willkürlich nach Begriffen sucht. Das wäre ziemlicher Spaß!

Abseits solcher individuellen Aktionen können wir nichts tun?

Auf einer sozialen Ebene können wir diese Firmen dahin drängen, neue, personalisierte Algorithmen zu nutzen, die andere Prioritäten setzen: Mehr oder weniger Videos, mehr oder weniger Text, mehr Nachrichten, mehr Freunde. Mehr Herausforderungen und mehr Überraschungen. Neues oder altes. Auf der rechtlichen und staatlichen Ebene müssen wir nach Regulierung verlangen. 

Mark Zuckerberg sieht Facebook ja selbst als Infrastruktur. Vergleicht es mit Strom. Und die Infrastruktur ist überall in der Welt reguliert. Warum also nicht auch die Algorithmen? Sie kontrollieren so viele Aspekte unseres Lebens, aber trotzdem sind sie nicht transparent. Früher hat man in solchen Fällen Repräsentanten gewählt, die das kontrollieren. Aber das gibt es nicht für Algorithmen. Den Menschen wurde hier Kontrolle genommen.

Man könnte zum Beispiel Quoten einführen, oder Werbung, besonders politische verbieten. Wenn es da eine Regulierung gäbe, dann würde der Wahlkampf nicht in diesem Maße in sozialen Netzwerken stattfinden. Und da ist er momentan. Zu einem Witz verkommen!