In der Ära der künstlichen Intelligenz lässt sich kaum noch feststellen, woher oder wer Inhalte im Internet generiert. Ist ein Traum zu Ende?

Die Künstliche Intelligenz kann heute schon den Menschen ersetzen
Ethan Harrison, ein Bostoner Versicherungsvertreter, mag Autos. Unabhängig davon, ob es sich um Hybridantriebe oder SUVs handelt: Er ist mit seinen Kenntnissen vertraut und teilt diese gerne. Harrison hat bereits auf der populären Frage-Antwort-Plattform Quora mehr als 4.500 Fragen kompetent beantwortet. „Tauchen wir ein in die Welt der Mazda- und Toyota-Motoren“, schreibt er etwa: „Ein Vergleich zweier Philosophien darüber, was ein Auto großartig macht“. Auf dem Profilbild zeigt sich Harrison mit einer normalen Frisur und einem seriösen Lächeln. Er hat eine gute Universität besucht. Seine Ratschläge wurden von anderen Benutzern bereits mehr als 5,6 Millionen Mal gelesen und möglicherweise auch befolgt.
Bloß: Jeder, der den Versicherungsagenten Ethan Harrison aus Boston online sucht, findet niemanden. Und wenn man sich durch seine Beiträge klickt, werden sie immer nach demselben Muster geschrieben und formatiert. Harrison ist offensichtlich ein Bot. Künstliche Intelligenz, die als Person auftritt.
Wie verändert KI das Internet?
Unsere Kommunikation im Internet verlief bisher in grober Vereinfachung wie folgt: Wir senden uns Herzchen, Likes oder Wutnachrichten, brüllen oder hassen einander, teilen Gefühle und Wissen. Ein Bündel, das aus Milliarden von Fäden besteht, die miteinander verbunden sind. Aber ist dies immer noch der Fall, da künstliche Intelligenz Websites, Bilder und Texte erstellen kann und ihre Kreationen das Internet überfluten? KI-Bots veröffentlichen Urlaubsfotos, verfassen böse Kommentare und versenden nackte Bilder. In Google-Ergebnissen und Bastlerforen erscheinen ihre Arbeiten.
Unklare Identitäten, suchmaschinenoptimiertes Clickbaiting und Fake-Accounts sind alles bereits seit langem vorhanden. Aber jetzt, wo KI-Tools immer mächtiger werden und für jeden zugänglich sind, scheint alles, was schon lange am Internet stört, wie auf Steroiden zu sein. Aufgrund der Tatsache, dass die KI den durchschnittlichen Internetnutzer fast vollständig nachahmt und daher oft nicht zu sehen ist – obwohl sie überall präsent ist. Darüber hinaus ist es wesentlich einfacher geworden, Spam automatisch ins Internet zu übertragen. Es wird dadurch erschwert, die Inhalte zu finden, nach denen man eigentlich gesucht hat. Das heißt, KI kann sowohl hohe Qualität, die nur schwer als künstlich erzeugt zu erkennen ist, als auch Müll im Akkord.
Bots machen bereits drei Viertel des weltweiten Internetverkehrs aus
Die kalifornische Cybersicherheitsfirma Arkose Labs veröffentlicht einen Report, in dem es heißt, dass Bots fast drei Viertel des weltweiten Internetverkehrs ausmachen. In anderen Untersuchungen wird die Hälfte davon angenommen.
Aber was bedeutet es für uns, wenn wir nicht mehr sicher sind, ob ein Foto oder ein Text von einem Menschen oder einer Maschine stammt? Untergräbt dies unser Vertrauen, da wir alles, was wir sehen, lesen und hören, kontinuierlich hinterfragen müssen? Und wenn soziale Netzwerke oder Google in dieser Weise degenerieren, warum bleiben wir dann noch dort?
Die Qualität der Suchmaschinen nimmt ab
Durch eine Studie deutscher Forscher wurde aufgezeigt, dass die Qualität von Suchmaschinen wie Google abnimmt. Dies liegt daran, dass sie oft auf Websites hereinfallen, die zwar darauf ausgelegt sind, in den Suchergebnissen weit oben zu erscheinen, jedoch inhaltlich wenig Mehrwert bieten und vermutlich zunehmend von künstlicher Intelligenz generiert werden.
Forscher der US-Universitäten Stanford und Georgetown untersuchen, wie KI-generierte Fotos auf Facebook sich millionenfach verbreiten, indem sie die Algorithmen der Plattform ausnutzen. Viele Nutzer nehmen an, dass es sich um echte Fotos handelt.
Die Beziehungen erschweren das Verlassen der Plattform
Auf Konferenzen in Los Angeles, London oder Winnipeg diskutiert der Tech-Theoretiker Cory Doctorow über den Verfall des Internets: „Dass wir die Plattformen noch nutzen, obwohl sie so mies sind, sagt uns, dass etwas sehr Wichtiges auf ihnen gefangen ist: die Beziehungen, die uns etwas bedeuten.“ Zuletzt entwickelte Doctorow aus seiner Perspektive ein Wort, das die Entwicklung zusammenfasst: enshittification – was wohl „Beschissenmachung“ bedeutet. Es wurde 2023 in den Vereinigten Staaten zum Begriff des Jahres ernannt.
Enshittification beschreibt kurz gesagt, wie Digitalunternehmen ihre Kunden mithilfe eines guten, innovativen Produkts wie Facebook, Twitter oder Google an sich binden können. Wenn die Unternehmen dies erreichen, treiben sie ihre Wertschöpfung auf Kosten der Qualität voran. Die Plattformen entarten sich, aber keiner kommt mehr davon. Doctorow behauptet: „Je schwieriger es ist, die Plattform zu verlassen, desto weniger müssen sie sich darum kümmern, ob ihre Nutzer zufrieden sind.“
Das Vertrauen in wahrheitsgemäße Informationen nimmt auch ab
Natürlich handelt es sich dabei um Geld. Und um Vertrauen. Es sieht so aus, als ob Ethan Harrison, der angebliche Bot auf Quora, von einem Versicherungsmakler geführt wird: Nebenbei weist er in zahlreichen Beiträgen darauf hin, wie man den Gebrauchtwagen, zu dem ein Nutzer eine Frage hatte, kostengünstig versichern könnte. Und einer Person, die so hilfreich ist und Fragen so detailliert beantwortet: Kann man ihr nicht trauen?
Das scheint das Kalkül zu sein, das sich dank KI nun massenhaft durchsetzt. Das Tech-Medium 404 berichtet über einen Anbieter, der seine KI-Bots damit vermarktet, dass sie in Gesprächen auf dem Portal Reddit unauffällig Produktnamen fallen lassen. Mehr als 70 Millionen Nutzer sind täglich auf Reddit aktiv, organisiert nach Themen, über die sie diskutieren, sei es Hochzeitsplanung, Aktienkauf oder Gebrauchtwagen. Geteiltes Interesse, geteiltes Vertrauen.
Wir können KI-erstellte Inhalte oft nicht mehr von realen unterscheiden
In Facebook-Gruppen wiederum, erklärt Josh Goldstein vom Center for Security and Emerging Technology an der Georgetown University, übernehmen Bots ehemals echte Profile oder Seiten und generieren mit KI-generierten Bildern Aufmerksamkeit und Interaktionen wie Likes und Kommentare. Dadurch werden die Inhalte für noch mehr Menschen sichtbar. Die Bilder enthalten oft Links zu Websites, auf denen mit KI-generierten Inhalten Werbeeinnahmen erzielt oder sogar direkt Kreditkartendaten gestohlen werden. Goldstein warnt: „Solange sich KI weiter verbreitet und Menschen nicht erkennen können, was echt ist und was nicht, besteht die Gefahr, dass das Vertrauen in authentische Informationen weiter abnimmt.“
Seine Aussage zielt darauf ab, dass das ständige Risiko, Opfer von KI zu werden, Misstrauen schürt und sogar die Realität in Frage stellt. Denn nicht nur KI ist schwer zu erkennen, sondern auch menschliche Täuschungen. Das führt dazu, dass selbst bei einfachen Google-Suchen manchmal mühsame Bilderrätsel gelöst werden müssen, um zu beweisen, dass man kein Bot ist.
Websites werden nach Struktur und nicht nach Qualität bewertet
Forscher der Universitäten Weimar und Leipzig bestätigen auch, dass sich die Qualität von Google zunehmend verschlechtert. Einer der Hauptautoren, Matti Wiegmann, vermutet, dass Google Websites hauptsächlich danach bewertet, wie sie strukturiert sind, anstatt nach Qualitätsstandards oder Nützlichkeit. Dies spielt der KI in die Hände. Sie kann Websites effizient nach bestimmten Kriterien entwickeln und Texte generieren, die dazu führen, dass diese Websites in den Google-Suchergebnissen besser platziert werden. Laut Wiegmann kümmert es Google nicht, ob viele KI-Websites in den Suchergebnissen auftauchen, solange der Großteil der Nutzer den Dienst weiterhin verwendet.
Selbst bei Google News, einem Nachrichten-Aggregator, werden mittlerweile KI-generierte Artikel angezeigt, die aus journalistischen Medien zusammengestellt sind. Es scheint, dass Google dies nicht weiter stört. Der Mutterkonzern im Silicon Valley bestätigt dies indirekt. Auf die Frage nach dem Umgang mit KI antwortet Google in einer E-Mail: „Unser Fokus liegt auf der Qualität der Inhalte, nicht darauf, wie sie hergestellt wurden.“
Selbst einer der Visionäre der künstlichen Intelligenz, Elon Musk, sieht diese Haltung problematisch. Auf seiner Plattform X teilt er einen Beitrag, der empfiehlt, sich bei Google-Suchen nur Ergebnisse von vor 2023 anzeigen zu lassen. Nur so könne man sich vor KI-generiertem Müll schützen. „The web has died“, endet der Tweet, das Netz sei gestorben.
Die „Dead Internet Theory“ ist in der Tat eine Verschwörungstheorie, die genau das prophezeit. Sie behauptet, dass wir, die in einem verborgenen, unbekannten Winkel des Internets geboren sind, uns durch eine Hölle voller Spam, Betrügerbots und Clickbait bewegen – ohne es zu bemerken. Diese Behauptung scheint angesichts der Studien von Josh Goldstein, Matti Wiegmann und anderen nicht mehr völlig absurd zu sein, wenn man den schwurbelnden Unterton ignoriert. Das heißt, dass das ursprüngliche Ziel des Internets, Menschen mit anderen Menschen, ihrem Wissen, ihren Gefühlen und Ideen zu verbinden, schon lange nicht mehr da ist.
Das würde die zweite bedeutende Enttäuschung darstellen, die das Internet der Menschheit zur Verfügung stellte. Da das Versprechen, eine bessere Zukunft gemeinsam zu gestalten, bereits als gescheitert betrachtet wird. Heutzutage wird das Netz nicht nur von Pessimisten als eine gesellschaftlich zerstörerische Radikalisierungsmaschine angesehen.
Der Mensch wird digitaler und das Digitale menschenähnlicher
Was geschieht, wenn die Menschen nun mit großer Sorgfalt feststellen, dass in ihrem digitalen Leben immer mehr Fälschungen vorkommen? Beginnen sie, das Internet in großer Zahl zu verlassen – während dort immer noch Licht brennt, weil KI-Bots einander ihre Sachen gefallen lassen?
Sofie Hvitved, die am Kopenhagener Institut für Zukunftsstudien über die Zukunft unserer digitalen Spezies veröffentlicht, geht davon aus, dass sich unser Verhältnis zur künstlichen Intelligenz eher deutlich verbessern könnte. „Die KI steht derzeit vor einem Vertrauensproblem.“ Was es erzeugt, wird als unecht, minderwertig oder Betrug betrachtet. Doch das wird sich wohl ändern.“ Eine Art TÜV für die KI, sei es durch eine verbesserte Kenntnis der Technologie oder durch Zertifizierungen. Laut Hvitved ist es denkbar, dass wir in Zukunft Maschinen dasselbe Vertrauen entgegenbringen wie Menschen. Eines ihrer Argumente ist, dass der Mensch auch Probleme darstellt. Ist es nicht wahr, dass der große Hass, die Belästigungen und die Mobmentalität im Internet eher auf eine unzureichende MI zurückzuführen sind als auf eine unzureichende KI? Hvitved behauptet, dass das Vergleichen von Mensch und Maschine ein Denken von gestern ist. Der Mensch wird digitaler, das Digitale wird menschenähnlicher und die Grenze wird sich immer mehr auflösen. Schon jetzt lässt sich feststellen: Eine KI kann ein gespenstisch echt wirkendes Video einer Person erstellen, indem sie ein Foto und ein paar gesprochene Sätze verwendet.
Die Menschendaten werden von den Modellen schneller aufgenommen, als sie neue erzeugen
Ein Refrain der Industrie lautet: „Die Frage ist nicht, ob die KI schlauer wird, sondern nur, wie steil ihre Lernkurve ist.“ Kritiker wie Doctorow behaupten, dass es nicht klar ist, ob dies tatsächlich wahr ist oder ob es sich lediglich um Marketing handelt, um Investoren zu gewinnen. Eines seiner Argumente ist, dass große Sprachmodelle qualitativ hochwertige Daten benötigen, damit sie sich verbessern können. Im vorliegenden Fall bedeutet Hochwertig: menschengemacht. Allerdings behauptet ein Forscherteam von Epoch AI, einem US-Thinktank, dass diese 2026 aufgebraucht sein könnten. Der eigentliche Befund bleibt unverändert, obwohl die Prognose mit vielen Unsicherheiten behaftet ist, wie die Forscher selbst zugeben: Die Menschendaten werden von den Modellen schneller aufgenommen, als sie neue erzeugen.
Erste Studien deuten darauf hin, dass die Inhalte der KI, die jetzt das Internet überfluten, wohl keine Abhilfe schaffen werden. In einem Paper aus dem Jahr 2023, das unter anderem von Wissenschaftlern der Universität Cambridge verfasst wurde, wurde festgestellt, dass die Sprachmodelle durch die Verwendung von KI-Daten weniger zuverlässig und vielfältig werden.
Ist es nicht bereits so, dass viele KI-Bots heute schon eine Kommunikation auf Menschenniveau bieten? Wenn sie sich nur noch ein wenig verbessern, könnte es dann nicht sinnvoller sein, mit einem intelligenten Bot zu sprechen als mit einem weniger klugen Menschen?
„Nein“, antwortet Catherine Zweig. KI-Vordenkerin in Deutschland ist die Informatikprofessorin der TU Kaiserslautern-Landau. „Weil wir eine gemeinsame Realität brauchen“, kann kein Bot den zwischenmenschlichen Dialog ersetzen. Der Philosoph Ludwig Wittgenstein bezeichnete diese als „Sprachspiel“. Ein theoretischer Ausdruck, der unter anderem von der Teenagertochter von Zweig praktisch umgesetzt wurde. „Sie hat kürzlich gesagt, dass unser Essen „übelst“ sei.“ Das war jedoch ein Kompliment. Im Gespräch stimmen Personen, die miteinander reden, über die Bedeutung eines Ausdrucks überein. Das kann eine KI nicht.
„Weil es nicht mehr der Ort ist, an dem ich das Gefühl habe, hochwertige Informationen zu bekommen“, ist auch Zweig der Meinung, dass das Internet verfällt. Insbesondere ein Ort, wo man stets darauf achten muss, dass das, was man liest, sieht, anklickt, nicht gefälscht ist.
Zweig glaubt jedoch, dass das Internet noch gerettet werden kann. „Seit der Erfindung der Druckerpresse führt jede neue Technologie, die den Zugang zu Produktionsmitteln verändert, zunächst zu einer Flut von Erzeugnissen von zweifelhafter Qualität.“ Erst wenn Gatekeeper eingreifen, die die Qualität sicherstellen, ändert sich dies. Früher waren das beispielsweise Verleger, während heute möglicherweise Suchmaschinen wie Kagi diese Rolle übernehmen, die für ihre Dienste Geld verlangen. Elon Musk führt derzeit Tests in Neuseeland und auf den Philippinen durch, um zu prüfen, ob Mitglieder seiner Plattform X in Zukunft für den Zugang bezahlen müssen. Offiziell wird dies als Maßnahme angekündigt, um Bots auszuschließen.
Bezahlte Inseln in einer Müllflut oder das Trüffelschwein im Internet
Dieser Gedanke wird in Diskussionen immer häufiger erwähnt: In Zukunft wird das Internet aus immer mehr großen und kleinen gated communities bestehen, Inseln in einer Müllflut. Wer bezahlt, ist Mitglied. Willkommen in unserem Club. Ein weiteres Szenario wäre eine KI, der wir vertrauen und die wir im Internet als Trüffelschwein schicken. Dort sucht sie nach dem, was wir sehen, hören und lesen möchten. Damit würde der Verfall des Internets verhindert werden. Ob es dann noch am Leben wäre, stellt eine weitere Frage dar. Man darf allerdings das Internet und die KI nicht verteufeln, denn die KI in der Medikamentenentwicklung zum Beispiel oder bei Innovationen im Kampf gegen den Klimawandel sind nur zwei Ansätze für einen sinnvollen Einsatz, der unser Leben in Zukunft einfacher machen wird.
Diskussionsfragen zum Thema:
- Im Hinblick auf das Vertrauensproblem der KI, wird sich Ihrer Meinung nach unser Verhältnis zur Künstlichen Intelligenz zum Besseren verändern?
- Eine Prognose besagt, dass das Digitale menschenähnlicher und der Mensch digitaler wird, d.h. die Grenzen verschwimmen. Könnte das die Lösung sein und das Internet retten?
- Können KI-Bots unsere Kommunikation im Internet trotzdem optimieren und ist es nicht besser, mit einer hochentwickelten KI zu kommunizieren als mit einem unklugen Menschen?

2 Gedanken zu “Wird das Internet bald sterben und wie die Künstliche Intelligenz das Netz verändert”