Die Debatte um die Schweizer Halbierungsinitiative dreht sich vordergründig um Kosten. Sie berührt jedoch auch eine weitere grundlegende Frage: Welchen Stellenwert haben öffentlich finanzierte Medienangebote heute noch in einer Medienrealität, in der sich Inhalte, Angebote und Kanäle vervielfacht haben und Aufmerksamkeit zu einer immer knapperen Ressource wird? Noch nie war es so einfach, Zugang zu Informationen zu erhalten. Künstliche Intelligenz (KI) und die zunehmende Automatisierung von Medienökosystemen dürften diese Entwicklung weiter beschleunigen, indem sie die Masse und Geschwindigkeit medialer Produktion und Distribution weiter erhöhen. Gleichzeitig bestimmen automatisierte Systeme immer stärker, welche Inhalte für Medienkonsumenten sichtbar werden, und welche sie nie erreichen.
Joschka J. Proksik
Senior Researcher und Speaker am GDI
Als promovierter Politikwissenschaftler analysiert er die Wechselwirkungen zwischen Geopolitik, Wirtschaft, Gesellschaft, Umwelt und Technologie.
Mehr zum Autor
Automatisierung wird immer umfassender
Automatisierte Mediensysteme sind seit Jahren im Einsatz, besonders dort, wo Daten strukturiert vorliegen und Geschwindigkeit zählt. Sport-, Wetter- und Finanzberichte, Marktupdates, Live-Ticker, aber auch Wahlberichterstattung lassen sich seit längerem automatisieren. Neu ist also weniger das Prinzip, sondern der durch generative KI ausgelöste Sprung in Reichweite, Masse und inhaltlicher Komplexität.
Automatisierung reicht inzwischen in immer komplexere Bereiche hinein, von Recherche und Analyse bis hin zu Einordnung und investigativen Formaten. Bei grossen internationalen Rechercheprojekten wie den Pandora-Papers oder jüngst den Epstein-Files (1) kommen automatisierte Text-Mining-Verfahren zum Einsatz, um grosse Mengen an Dokumenten auszuwerten. Dabei ist Automatisierung nicht nur ein Hilfsmittel, sondern eine Voraussetzung, um diese Skalierung überhaupt zu leisten. Gleichzeitig stützt sich die journalistische Arbeit dabei auf die Ergebnisse von Systemen, deren blinde Flecken oder Verzerrungen sich nur begrenzt überprüfen lassen.
Neben diesen etablierten Formen der Automatisierung in der Recherche stützt sich ein wachsender Teil journalistischer und medialer Kernarbeit auf generative KI. Bereits 2024 zeigte eine Umfrage in Grossbritannien (2), dass Journalisten KI nicht nur für technische Routinetätigkeiten nutzen, sondern auch zur Erstellung von Inhalten sowie für Ideenentwicklung und Fact-Checking. Eine Untersuchung der Universität Zürich (3) zur Nutzung von KI im Schweizer Journalismus aus dem Jahr 2025 zeigt ebenfalls, dass rund 40 Prozent der Befragten KI häufig oder zumindest gelegentlich für diese Aufgaben verwenden.
Betrachtet man alle Online-Inhalte, zeigt sich die Entwicklung noch deutlicher. 2025 wurden im Internet erstmals mehr Inhalte durch KI generiert als von Menschen erstellt. In den Bereichen Social Media und Werbung sind nahezu vollautomatisierte Systeme bereits Teil der Realität.
Hybrid ist das neue Normal
Die Grenzen zwischen menschlich geschaffenen und maschinell generierten Inhalten verschwimmen zunehmend. Wenn Inhalte von Menschen erstellt, aber durch KI überarbeitet werden, oder andersherum, lässt sich Urheberschaft in vielen Fällen kaum noch klar bestimmen. Schon heute ist diese Unterscheidung in vielen Bereichen nur noch graduell möglich, etwa wenn Inhalte automatisch vorstrukturiert, zusammengefasst, sprachlich geglättet oder in Varianten ausgespielt werden.
Hybride Inhalte und Systeme werden somit zum Normalfall. KI übernimmt immer mehr Funktionen, Menschen arbeiten weiter mit, aber in veränderten Rollen. Weniger als reine Produzenten, stärker als Impulsgeber, Kuratoren und Qualitätswächter. Das wirft neue Fragen hinsichtlich Transparenz, Kennzeichnung und Vertrauen auf. Was heisst es noch, eine «Originalquelle» zu zitieren, wenn unklar ist, ob diese Quelle selbst schon mit KI erstellt wurde? Und wird es immer schwieriger zu prüfen, was stimmt, wenn sich mehr und mehr KI-Quellen auf andere KI-Quellen stützen? In der KI-Forschung kennt man bereits das Phänomen des sogenannten «Model Collapse». Wenn KI-Modelle zunehmend mit synthetischen Daten trainiert werden, verlieren sie Varianz und Genauigkeit. Übertragen auf den öffentlichen Diskurs stellt sich die Frage, ob auch unser Wissen flacher und kreisförmiger wird, wenn es immer häufiger auf KI-Zusammenfassungen beruht.
STRATEGIC FORESIGHT
Aus dem GDI Major Shifts Framework haben wir für ein Unternehmen Auswirkungen und Hypothesen im Gesundheitswesen erarbeitet. Dabei wurde deutlich, dass sich das System von institutionenzentrierten Strukturen hin zu daten- und plattformbasierten Versorgungslogiken verschiebt.
Die automatisierte Medienökonomie treibt eine tiefgreifende, datengetriebene Transformation des Gesundheitswesens voran. Gesundheitsinformationen werden permanent, personalisiert und vielfach KI-vermittelt ausgespielt. Patient*innen sind digital informierte Akteure, die Versorgung, Qualität und Entscheidungen stärker mitsteuern.
Für das System bedeutet dies: Versorgungspfad, Rollen und Machtverhältnisse verschieben sich hin zu Plattformen, KI-gestützten Beratungsleistungen und digital orchestrieren Patient Journeys.
Beschleunigung ohne Entlastung?
Mit der zunehmenden Automatisierung beschleunigt sich die mediale Produktion, und die Menge veröffentlichter Inhalte wächst. Rund 40 Prozent der befragten Medienschaffenden in der Schweiz geben an, dass sich ihre Beitragsproduktion durch den Einsatz von KI stark oder zumindest etwas erhöht hat; etwa 30 Prozent berichten, mehr Zeit für Recherche zu haben. Demgegenüber steht eine Mehrheit, die diese Effekte kaum oder gar nicht wahrnimmt. Beschleunigung und Effizienzgewinne erscheinen real, sind aber bislang keineswegs flächendeckend.
Doch selbst wenn nur ein gutes Drittel der Medienschaffenden mehr Beiträge veröffentlicht, führt das zu einem deutlichen Anstieg der Gesamtzahl publizierter Beiträge, während Entlastung in vielen Fällen ausbleibt. Gleichzeitig sinken die Eintrittshürden für mediale Produktion weiter. KI-gestützte Tools vereinfachen Prozesse, die zuvor Fachwissen oder Ressourcen erforderten. Damit wird es für mehr Menschen immer leichter, Inhalte zu erstellen und zu verbreiten.
Was für Medienschaffende stärkere Konkurrenz um Aufmerksamkeit bei Zielgruppen bedeutet, zeigt sich für die Konsument*innen als stetig wachsendes (Über-)Angebot. Die Diskussionen über nachlassende Konzentrationsfähigkeit und Reizüberflutung zeigen, dass uns neue Mediensysteme nicht nur informieren, sondern auch prägen. Damit stellt sich die Frage, ob individuelle und kollektive Orientierung sowie Urteilskraft unter Druck geraten und inwieweit uns die Fähigkeit erhalten bleibt, langfristige Entwicklungen zu erkennen und zu verstehen.
Personalisierung zwischen Relevanz und Echokammer
Automatisierte Mediensysteme ermöglichen Skalierung nicht nur bei Produktion und Distribution, sondern zunehmend auch bei Variation und Anpassung. Schon lange erlauben Algorithmen sich gezielt über bestimmte Themen informieren zu lassen und dadurch schneller zu Relevanz gelangen. In einer überfüllten Informationsumgebung kann automatisierte Personalisierung entlasten, indem sie irrelevante Inhalte ausblendet und die Orientierung erleichtert. KI-gestützte Informationssysteme können diese Form der Auswahl erheblich steigern.
Dem steht jedoch das dystopische Bild der vollendeten Echokammer gegenüber und die Gefahr einer immer engeren Vorauswahl. Wenn Personalisierung immer präziser wird, könnten Menschen vor allem mit Inhalten und Perspektiven konfrontiert werden, die ihren bestehenden Interessen und Weltbildern entsprechen. Oder mit dem, was Algorithmen als passend einstufen. Das wirft die Frage auf, inwieweit automatisierte Systeme zu einer noch stärkeren Fragmentierung von Informationsräumen beitragen. Entscheidend ist auch, nach welchen Kriterien individuelle „Passung“ definiert wird und ob tatsächlich Nutzerinteressen im Vordergrund stehen oder andere Logiken Personalisierung prägen.
Objektiver als Menschen oder nur effizienter in der Verzerrung?
Je mehr KI zur Erstellung von Inhalten verwendet wird und intellektuelle Arbeitsschritte automatisiert, desto stärker rückt die Frage nach Qualität in den Vordergrund. Gerade im Journalismus geht es dabei nicht nur um Effizienz, sondern um Standards, Verlässlichkeit und Vertrauen.
Dass KI-Systeme Fehler reproduzieren, die bereits in den Daten enthalten sind, auf denen sie trainiert wurden, ist bekannt. Im Kontext automatisierter Mediensysteme werden solche Fehler nicht nur übernommen, sondern potentiell skaliert. Gleichzeitig besteht die Hoffnung, dass eine konsequent an journalistische Standards gebundene KI menschliche Schwächen verringert: Subjektive Voreingenommenheit oder ideologische Färbung in Bewertung und Sprache. Ob und unter welchen Bedingungen dies tatsächlich gelingen kann, ist bislang offen.
Auch die Verbreitung von Falschinformationen und Verzerrungen könnte auf Basis valider Daten verringert werden. Das klingt attraktiv, gerade in Zeiten polarisierter Informationsräume und zunehmender Debatten um die Gefahren durch Desinformation. Nur: wer kontrolliert die algorithmischen Auswahlmechanismen und bestimmt letztlich was als richtig gilt oder falsch, als Meinung oder Tatsache? Man braucht keinen Hang zum Konspirativen, um zu erkennen, dass sich hier neue und potentiell ungeahnte Risiken für Manipulation und Desinformation auftun können. Verlagert sich in Zukunft der Kampf um Narrative und (politische) Deutungshoheit in die KI, und zu denen, die sie kontrollieren?
Neben der Qualität von Inhalten stellt sich die Frage nach deren Verteilung. Wer welche Inhalte zu sehen bekommt, ist mindestens so entscheidend wie deren Qualität. Schon heute toben heftige Debatten um die Rolle von Algorithmen bei der Verbreitung und Sichtbarkeit von Information, etwa auf Google, X oder Facebook. Zudem können automatisierte Systeme dazu genutzt werden, Inhalte gezielt zu emotionalisieren oder zu skandalisieren. Clickbait oder absichtlich polarisierende Inhalte sind längst ein mediales Phänomen.
Schnell wird klar: Automatisierte Mediensysteme sind ein zweischneidiges Schwert. Theoretisch können sie helfen Qualität und Relevanz zu erhöhen, aber auch Verzerrungen, Falschinformationen und Manipulation Vorschub leisten.
Kodex für Code?
Mit der zunehmenden Automatisierung wächst der Druck, klare Regeln für den Einsatz von KI zu definieren. Weltweit haben Redaktionen und Medienhäuser Leitlinien verabschiedet. Eine Analyse von über fünfzig Richtlinien (4) aus Europa und Nordamerika zeigt deutliche Konvergenz: Transparenz, Kennzeichnung und menschliche Aufsicht gelten inzwischen fast überall als Mindeststandard.
Trotz dieser Gemeinsamkeit entsteht bislang kein einheitlicher Standard. Nationale und organisationale Besonderheiten prägen weiterhin die konkrete Ausgestaltung. Zudem bleiben zentrale Fragen offen, etwa bezüglich technologischer Abhängigkeiten von Tech-Konzernen. Hinzu kommt ein strukturelles Problem. KI-Systeme sind in ihrer Funktionsweise oft nur begrenzt nachvollziehbar, und journalistische Werte lassen sich schwerer technisch verankern als normativ formulieren.
Richtlinien können Orientierung bieten. Ob sich journalistische Standards dauerhaft und zuverlässig in automatisierte Systeme integrieren lassen, bleibt offen.
Automatisierung verschiebt Massstäbe
Automatisierte Medienökosysteme beschleunigen nicht nur Produktion und Verbreitung, sie erzeugen einen strukturellen Informationsüberfluss. Generative KI ermöglicht Skalierung und Variation in bisher unbekanntem Ausmass. Dadurch verschieben sich Massstäbe. Überfluss und Knappheit werden neu sortiert. Substanz, Orientierung und Vertrauen bleiben begrenzt. In einer zunehmend automatisierten Medienwelt wird die Fähigkeit entscheidend, Relevanz durch Auswahl und Fokus zu sichern. Für Medienschaffende und Unternehmen stellt sich die Frage, wie Inhalte in einer algorithmisch geprägten Umgebung überhaupt noch durchdringen können. Für Mediennutzende wird Aufmerksamkeit endgültig zur knappen Ressource, die es immer bewusster zu steuern gilt.
Reclaiming Focus – How to Stand Out in a World of Constant Noise? Diesem Thema widmet sich der kommende Europäische Trendtag am 25. März 2026.
- https://reutersinstitute.politics.ox.ac.uk/news/epstein-files-investigative-journalism-prince-andrew-arrest
- https://reutersinstitute.politics.ox.ac.uk/ai-adoption-uk-journalists-and-their-newsrooms-surveying-applications-approaches-and-attitudes
- https://www.news.uzh.ch/de/articles/media/2025/KI-Journalismus.html
- https://www.tandfonline.com/doi/full/10.1080/21670811.2024.2431519?scroll=top&needAccess=true