Skip to main content

Haben wir uns an ein vollgespammtes Internet gewöhnt?

Mit gemischten Gefühlen nehme ich vor Veröffentlichung dieser Kolumne kleine SEO-Optimierungen vor, um den Artikel höher im Google Ranking erscheinen zu lassen. Ich tue, was ich kann, um den Score nach oben zu treiben, ohne den Text in einen Schatten seiner selbst zu verwandeln. Man kennt sie, die simpel verfassten Blogtexte, in denen sich Keywords so oft stumpf wiederholen, bis der Informationsgehalt des Textes gegen null geht. Deshalb ignoriere ich Meldungen, die darauf hinweisen, dass der SEO-Score höher wäre, würde ich das Fokus-Schlüsselwort noch ein paar Mal öfter im Text wiederholen.

Ich weiß, dass diese kleine Kolumne über Onlinekultur, die ich seit einigen Monaten in den Äther schicke, vielleicht ein paar mehr organische Klicks bekäme, würde ich mich nur kürzer fassen und mehr Keywords nutzen. Vielleicht mal eine Liste einbauen? ‘10 Gründe, warum dein YouTube-Channel noch nicht durch die Decke ging’, oder ‘Die 6 besten Tipps für organisches Wachstum’. SEO findet sowas toll. Aber was das angeht, bin ich privilegiert: ich muss den Text nicht zwingend auf möglichst viele Klicks optimieren, weil wir unser Geld glücklicherweise nicht mit Ad-Schaltungen verdienen und ich für meine Zeit regulär bezahlt werde. Und der Teufel soll mich holen, wenn mich die Logik von Klicks um jeden Preis, die ich bereits in einem anderen Artikel angefochten habe, dazu bringt, meine Arbeit zu verwässern, bis nichts mehr von ihr übrig bleibt.

Klicks sind bares Geld…

…auch und gerade dann, wenn der Inhalt, mit dem man diese Klicks generiert, ziemlich egal ist. Seit ChatGPT und anderen KI-Modellen ist es geradezu lächerlich einfach geworden, massenhaft minderwertigen Content zu produzieren und damit Traffic auf seine Websites zu lenken. Und warum sollte man sich ausdenken, welche Texte man generieren lässt, wenn man sie ohnehin schon nicht selbst schreibt?

Das dachte sich auch der sogenannte Tech-Entrepreneur Jake Ward, der im vergangenen Jahr auf X damit prahlte, mittels eines ‘Seo-Raubs’ erfolgreich 3,6 Millionen Klicks von Konkurrenten gestohlen zu haben. Ward kopierte die Sitemaps konkurrierender Websites, erstellte auf Basis der geklauten URLs Artikelüberschriften und ließ eine KI im Anschluss rund 1800 gefälschte Artikel generieren. Nichts mit Lektorat oder kleinen Korrekturen, direkt online stellen ist die Devise. Ziel war es, durch massenhafte Platzierung relevanter Keywords den Traffic anderer Websites auf seine eigenen Seiten umzulenken und so Werbeeinnahmen abzuschöpfen – und das ist ihm gelungen. Die Reaktionen auf den Post zeigen zwar, dass nicht alle das wirklich gut finden. Doch es gibt viele Bewunderer, die mit der gezielten Manipulation des Systems zugunsten des eigenen Profitinteresses kein Problem haben. Das Argument: Google lasse es schließlich zu.
Gibt man den Begriff ‘Seo-Heist’ auf YouTube ein, finden sich zahlreiche Trittbrettfahrer, die Ward für seine findige Business-Idee feiern und uns erklären, wie auch wir mit minderwertigem und repetitiven KI-Quatsch Geld verdienen können, und das auf Kosten der Website-Betreiber, die sich die Mühe machen, eigene Inhalte zu entwickeln, welche nicht aus der Dose kommen.

Müllhalde Internet?

Generell wird die schiere Menge KI-generierten Contents für das gesamte Internet zum Problem. Spotify wird von KI-Tracks geflutet, die wiederum von Bots geklickt werden, um die Streams künstlich in die Höhe zu treiben: Artificial Streaming gewinnt dadurch eine ganz neue Qualität. Amazon quillt über vor billig generierter Fake-Literatur, und dass KI-generierte und oft illegale Pornographie soziale Netze überschwemmt, ist schon seit einer ganzen Weile keine neue Info mehr.

Von digitalen Geisterstädten ist die Rede, von ‘KI-Schleim’, der nach Studien bereits jetzt mehr als die Hälfte des Internets ausmachen soll und es sogar erschwert, dass vielen KI-Modellen überhaupt noch ausreichend hochqualitative Daten zur Verfügung stehen. So zum Beispiel, wenn Inhalte in seltenen Sprachen bereits von unsinnigen automatischen KI-Übersetzungen überschrieben sind und es damit unmöglich wird, mit solchen Datensätzen neue Modelle in diesen Sprachen zu trainieren. Je mehr automatisch generierter Content im Netz landet, desto schlechter werden die Informationen, die fürs Training von KI-Modellen zur Verfügung stehen: es scheint nur eine Frage der Zeit, bis der sogenannte Model Collapse diese vollständig nutzlos macht. Und dass die Informationen, die KI-Modellen zur Verfügung stehen, aufgrund ihrer schieren Menge eben auch immer nur eine stark komprimierte Annäherung darstellen, wissen die wenigsten.

Nach der sogenannten Dead Internet Theory, die seit ein paar Jahren als Verschwörungstheorie durchs Netz geistert, besteht das Netz bereits seit 2016 oder 2017 großteilig aus KI-generierten und oft repetitiven Inhalten, der von Bots und Bot-Accounts weiterverbreitet wird. Wer dahinter eine Verschwörung von Regierungen vermutet, liegt falsch. Viel gruseliger finden wir es, dass sich diese Entwicklung vor aller Augen abspielt, ohne dass daraus weitreichende Konsequenzen folgen. Öffentlicher Druck bewirkt mitunter, dass Tech-Konzerne etwas härter gegen Hate Speech und Desinformation vorgehen; zumindest gibt es regelmäßige politische Interventionen. Doch die Macht der Konzerne ist immens, und wer hat schon das technische Know-how, um zu jeder Zeit genau nachvollziehen zu können, welchen fragwürdigen Business-Strategien ein soziales Netzwerk nun wieder zugetan ist?

Google-Rankings: Quantität über Qualität

Generell nimmt die Qualität der Suchergebnisse bei Google und Konsorten nachweislich ab. Der Grund liegt auf der Hand: der Anbieter, der am meisten zahlt, bekommt das höchste Ranking, unabhängig von der Qualität der Inhalte. Mit einem Marktanteil, der zwischen 80 und 90% schwankt, gibt es zudem nur wenige konkurrenzfähige Alternativen zu Google. Auf welchen Websites Google seine Ads schaltet, scheint jedenfalls keinen verbindlichen Qualitätsstandards mehr zu unterliegen.
Das können sich auch Website-Betreiber zunutze machen, die gezielt Desinformation, Hass und Hetze verbreiten: da Rage- und Clickbait einfach wunderbar funktionieren, um Klicks zu generieren, zahlt sich die Verbreitung von menschenfeindlichen Inhalten und politischer Propaganda ebenso aus wie krude Heilsversprechen zur natürlichen Bekämpfung von Krebs. Und die Anbieter, die Google viel Geld für die Schaltung ihrer Ads bezahlen, haben oft gar keine Information darüber, wo ihre Anzeigen letztendlich landen. Unsere Aufmerksamkeit ist die wichtigste Ressource für die Plattformen – unsere Zufriedenheit mit der Qualität des gebotenen Services im besten Fall nur noch begrenzt.

Die Werbepausen sind zurück

Wer sich bis vor einigen Jahren darüber gefreut hat, dank Streaming-Anbietern nun endlich keine lästigen Werbeunterbrechungen wie im klassischen Fernsehen mehr abwarten zu müssen, muss nun feststellen, dass diese zur Hintertür wieder reingekommen sind. Warum zahlt man für Spotify Premium, wenn man sich nun doch Werbung anhören muss? Und es ist längst nicht mehr genug, ein Abo für Amazon Prime zu haben. Mehr als 100 buchbare Zusatz-Channels gestalten das Streamingangebot so unübersichtlich, dass man permanent vergisst, die Testzeiträume zu kündigen, nachdem man sich mal einen Film anschauen wollte, der im Hauptprogramm nicht gezeigt wird. Wer es nicht einsieht, Netflix pro Monat 13,99€ für das werbefreie Abo zu bezahlen, wird für das 4,99€-Abo mit nicht überspringbaren Anzeigen überhäuft und muss zudem hinnehmen, dass nicht alle Inhalte verfügbar sind.

Diese Vermüllung des Internets mit KI-Quatsch und die stetig sinkende Qualität von Inhalten zugunsten von Werbeeinnahmen hat einen Namen. Der kanadische Journalist und Autor Cory Doctorow hat den Begriff der Enshittification zwar nicht erfunden, aber maßgeblich geprägt. In a nutshell kann man das Problem folgendermaßen zusammenfassen: Wenn für die Tech-Konzerne die Advertiser die Kunden sind, die es bei Laune zu halten gilt, werden eben die User zum Produkt. Und je enger man als User an eine Plattform gebunden ist, desto einfacher haben es Firmen, seine Interessen zu untergraben, ohne eine nennenswerte Abwanderung zu verzeichnen; zumal es ja auch oft fast keine Konkurrenz mehr gibt. Die Plattformen quellen also über vor Werbung und minderwertigem Content, welcher der User Experience diametral entgegensteht, während man deren Aufmerksamkeit an Werbetreibende verkauft. Es lebe die Monopolisierung.

Was nun?

Es gibt Wege, dieser Entwicklung entgegenzusteuern. Doctorow spricht sich klar für das sogenannte end-to-end-principle aus: Daten werden von einem bereitwilligen Sender zu einem bereitwilligen Empfänger übertragen, ohne dass andere Interessen zwischengeschaltet werden. Für unseren Social Media Algorithmus heißt das zum Beispiel, dass uns ein chronologischer Feed mit Content angezeigt wird von Accounts, denen wir folgen und mit denen wir interagieren, statt Content, den uns die Plattformen aus Profitinteresse lieber zeigen wollen. Außerdem ist er Befürworter des right-to-exit: damit ist schlicht und einfach gemeint, dass es ebenso einfach ist, die Plattform mitsamt seiner Daten zu verlassen, wie es ist, sich dort anzumelden. Beide Ansätze stehen den wirtschaftlichen Anreizen der Tech-Konzerne natürlich entgegen, aber man kann ja träumen – oder nach nicht-kommerziellen und dezentral organisierten Alternativen Ausschau halten.

 

In diesem Sinne: gebt ihr dem Fediverse eine Chance?

Viktoria Steiber

Writer & Inhouse Creator

Newsletter erhalten

Regelmäßige Insights, News und Tipps für deine YouTube-Strategie.