Datengetriebene Inhalteproduktion liegt im Trend - Roboter als neue Journalisten und Gatekeeper?

15.12.2015
 
 

Datenjournalismus spaltet die Gemüter in der traditionsreichen Verlagsbranche: Während Redakteure ihren Berufsstand durch Maschinen bedroht sehen, gilt der gekonnte Umgang mit Daten für viele als zukunftsweisend. Daten beeinflussen die Arbeit von Journalisten heute auf vielschichtige Art und Weise. Betrachtet man die aktuellen Trends im Data-driven Journalismus, wird schnell klar, dass eine ganze Branche grundlegend transformiert wird.

Computational Journalism verändert Redaktionsarbeit

Bereits heute setzen Branchengrößen wie "Associated Press" oder der deutsche "Sport-Informations-Dienst" (SID) sogenannte "Natural-Language-Processing"-Software ein, um Artikel per Algorithmus zu verfassen. Für 2016 hat ein Software-Unternehmen angekündigt, automatisch generierte Texte mit Vorhersagen zur US-Wahl zu veröffentlichen. Und der Leser? Untersuchungen belegen, dass „Otto Normal“ kaum noch zwischen einem automatisiert verfassten und einem von Menschen geschriebenen Artikel unterscheiden kann. Chancen tun sich hier insbesondere für Nischeninhalte oder regionale Verlage auf, die nun effizienter berichten können, z.B. auch mit Spielberichten der Kreisliga. Im kommenden Jahr wird sich die Menge, Qualität und Verfügbarkeit von Daten – allesamt Grundvoraussetzungen für Roboterjournalismus – weiter erhöhen.

Aggregational Journalism schafft neue Marken mit digitalem Kern

Angebote wie "Huffington Post" und der "Business Insider" werten die Präferenzen ihrer Nutzer professionell aus, steuern zielgruppenspezifischen, verdichteten Content aus und schaffen damit schnell wachsende Marken im fragmentierten Online-Markt. Im Zuge einer dynamischen Expansion werden dann neue Umsatzfelder wie themenbezogene Veranstaltungen und Business-Intelligence-Dienste erschlossen.

Auch "BuzzFeed", groß geworden mit Traffic-optimierten "10 Gründe..."-Artikeln, stellt sich breiter auf. Fremde Inhalte werden im eigenen Angebot gebündelt, eigene Inhalte auf Plattformen anderer Anbieter präsentiert. Aggregatoren und Intermediäre werden weiterhin Inhalte selbst produzieren und bündeln, diese aber auf mehr Plattformen veröffentlichen. Wenn wir unseren Smart TV einschalten, könnte also demnächst "BuzzFeed" laufen – ohne, dass wir dies als solches erkennen.

Explainer/Database Journalism optimiert multimediales Storytelling und schafft Mehrwert

Durch Visualisierung und verbesserte Übersicht werden Inhalte zugänglicher und interessanter. Die Leser werden so immer häufiger zu aktiven Zuhörern und Zuschauern, die sich durch spannend vermittelte Geschichten durchscrollen. Gleichfalls kann durch die geschickte Aufbereitung von Datenbanken für die Nutzer ein konkreter und alltagsrelevanter Mehrwert geschaffen werden.

"The Upshot", das Datenjournalismus-Angebot der "New York Times", bietet unter anderem einen Mieten-oder-Kaufen-Rechner, der auf Basis von Präferenzen, Finanzierungskosten etc. eine individuelle Empfehlung für die Miete bzw. den Kauf von Immobilien gibt. Treiber des Explainer/Database Journalism im nächsten Jahr ist neben der zunehmenden Akzeptanz von multimedialem Storytelling auch die Vielzahl immer günstigerer Datenvisualisierungswerkzeuge wie z.B. Tableau.

Data Journalism ist ein wichtiges Werkzeug für neue Insights

Als Gatekeeper und Informationsvermittler wird von Nachrichtenjournalisten heute verlangt, mit geeigneter Software die für ihre Recherche relevanten Daten zu finden und zu analysieren. Teilweise wird sogar die Suche nach Informationen ausgelagert, wie an den Beispielen Plagiat-Wikis und "Wikileaks" deutlich wird. Die steigende Relevanz von Big Data, die weiterhin aktive Arbeit an Wikis und nicht zuletzt der immer gekonntere Umgang mit Data-Mining-Software werden die Bedeutung des Datenjournalismus weiter erhöhen.

Daten verändern aber nicht nur die Produktion von journalistischen Inhalten, sondern auch deren Verbreitung. Was mit Google News begann, hat sich heute ausdifferenziert zu Plattformen wie Facebook Instant Articles, die für ihre aggregierten Nutzer Inhalte suchen, und Diensten wie Blendle, die für ihre aggregierten Inhalte Nutzer suchen. Beide Anbieter versuchen, mit Daten den Fit zwischen Nutzer und Inhalten zu optimieren.

2016 könnte also das Jahr sein, in dem wir direkt auf Facebook eine "BuzzFeed"-Meldung lesen, die auf einem Online-Artikel unserer Lieblingszeitung basiert, für den mit Hilfe eines Algorithmus die Wikileaks-Datenbank ausgewertet wurde.

Von Marcus Hochhaus, Geschäftsführer und Partner Goldmedia, und Andrej Sosedow-Yu, Consultant Goldmedia

 Der Artikel ist Teil des Goldmedia Trendmonitors 2016. Goldmedia gibt im Trendmonitor alljährlich in Form von Analysten-Kommentaren einen Ausblick auf relevante Trends in den Bereichen Medien, Internet und Telekommunikation des kommenden Jahres in Deutschland.

 

Ihre Kommentare
Kopf
Weitere Beiträge zu diesem Thema
Inhalt konnte nicht geladen werden.