Roboterjournalismus Titel

Foto Roboterarm: Wacko Photographer, Foto Schreibmaschine: J E Theriot , Lizenzen: Creative Commons

Montagmorgen, 10:30 Uhr.  Die Redaktionsrunde versammelt sich um den großen Tisch im Konferenzraum. Für den kommenden Tag gibt es viele neue Themen. Der Chefredakteur nimmt einen letzten Schluck aus seiner Kaffeetasse und eröffnet die Runde. 15 blankpolierte Roboterjournalisten funkeln mit ihren roten Roboteraugen und spitzen aufmerksam die Roboterohren. „R2000, Wetterbericht. R2001, Börse. R2002, Bundesliga.“ Beep, beep. Schon tippen sie mit flinken Roboterfingern los. Roboterjournalismus!

Dieses Szenario ist natürlich frei erfunden. Reine Zukunftsmusik ist es jedoch nicht, wobei der Begriff „Roboter“ nicht wortwörtlich genommen werden sollte. Schon heute werden Texte vollautomatisch ohne menschliches Zutun geschrieben. Semantisches Publizieren, das in den Medien oftmals unter dem Begriff „Roboterjournalismus“ auftaucht, ist das Zauberwort. Experten weltweit sind sich einig: Schreibende Software hat das Potenzial, sich langfristig in der Medienlandschaft zu etablieren.

Vorausgesetzt, die Texte basieren auf strukturierten, maschinenlesbaren Daten. „Das Schreiben von Finanznachrichten, Wettervorhersagen oder Fußball-Spielberichten können Algorithmen komplett übernehmen“, meint Prof. Dr. Andreas Graefe, Inhaber der Sky Stiftungsprofessur an der Macromedia Hochschule München. Für das Tow Center der Columbia University in New York hat er als Research Fellow den Status Quo und die künftige Entwicklung des automatisierten Journalismus analysiert.

Roboterjournalismus 1Bild Roboter:  Janus Sandsgaard, Lizenz: Creative Commons

Das Interesse an schreibender Software wächst weiter. Redaktionen stehen unter Druck. Die Menschen lesen im Web, für Online-Content zahlen will aber noch immer nur ein geringer Teil. Roboterjournalismus könnte langfristig gesehen Kosten sparen.

Ohne Daten keine Texte

In dem noch jungen Markt kommen die Vorreiter aus den USA. Aber auch in Deutschland etablieren sich Firmen, die selbstschreibende Software anbieten. Johannes Sommer, Geschäftsführer der Retresco GmbH, erklärt an einem simplen Beispiel, wie die Software seines Unternehmens arbeitet: „Grundlage der Textgenerierung sind strukturierte Daten, z. B. ein Fußball-Spielbericht.

Diese reichern wir mit historischen Kennziffern an, um Geschehnisse einordnen zu können.“ Beim Beispiel Fußball sind das unter anderem Informationen darüber, wie die Mannschaften in dieser Saison bisher gespielt haben, auf welchem Tabellenplatz sie stehen oder wie viele Tore sie geschossen haben. Im nächsten Schritt analysiert die Software diese Zahlen und extrahiert daraus die relevanten Informationen, wie „Außenseiter spielt gegen Spitzenreiter“ oder „Team A hat eine schwache Abwehr“. Die Informationen werden sprachlich aufgearbeitet und zu einem runden Text zusammengeführt. Grenzen gibt es nur da, wo es keine Daten gibt.

Roboterjournalismus 2

„Der Markt ist meiner Ansicht nach noch in der Experimentierphase. Nach und nach werden die Texte der Anbieter besser. Die Kunden probieren aus, in welchen Bereichen ihnen der Einsatz semantisch publizierter Texte etwas bringt.“ Prof. Dr. Andreas Graefe wagt derzeit mit dem Projekt PollyVote ein spannendes Experiment: Auf Basis von Prognosen der diesjährigen US-Wahlen erstellt ein Stuttgarter Unternehmen automatisierte Texte. Zum ersten Mal kommt Roboterjournalismus im Bereich Politik zum Einsatz.

Viele Menschen würden jetzt behaupten: „Ich merke doch wohl, ob ein Mensch oder eine Maschine einen Text verfasst hat!“ Dieser Test der New York Times zeigt, was „Robo-Redakteure“ bereits leisten können, und fordert den Leser heraus. Mensch oder Maschine – wer hat’s geschrieben?

Wachsende Nachfrage

Die Idee von Retresco entstand bei Johannes Sommer und Gründer Alexander Siebert aus dem Spaß an der Kombination von Sprache und Daten. Außerdem bemerkten sie eine wachsende Nachfrage an automatisierten Texten. „Redaktionen haben begrenzte Ressourcen, müssen aber gleichzeitig eine zunehmende Anzahl unterschiedlicher Kanäle bedienen, von Zeitungen über Websites bis zu Mobile-Apps und Social-Media-Kanälen“, sagt Sommer.

Hinzu komme, dass User die Kanäle in verschiedenen Situationen nutzen, was wiederum eine differenzierte und individuelle Ansprache erfordere. Natürlich in Echtzeit und sauber recherchiert. „Das ist von Menschen schlicht nicht zu leisten, ganz gleich wie groß eine Redaktion sein mag. Daher entwickeln wir unter anderem auf Semantik basierende Lösungen, die Aufgaben und Prozesse von Redaktionen automatisieren.“

Gerade in der Branche selbst gibt es deshalb viele Skeptiker. Sie befürchten, dass aus Unterstützen schnell Ersetzen wird. Wenn der Roboterkollege sauberer, schneller und günstiger arbeitet, wozu dann noch ein Redakteur?

via GIPHY
Eine Eigenschaft aber gibt es, die Mensch und Computer grundsätzlich unterscheidet und immer unterscheiden wird: Ein Roboter fühlt nicht. Ohne Gefühle ist er nicht in der Lage, seinen Texten Subjektivität, also eine eigene Meinung zu geben. Der Mehrwert des Journalismus, Fakten zu bewerten und nicht nur zu transportieren, geht verloren. Prof. Dr. Andreas Graefe hält daher einen Mittelweg für realistisch: „Algorithmen können einen ersten Entwurf generieren, der dann vom Journalisten verfeinert wird. Die Associated Press verfolgt diese Strategie beispielweise für den Teil ihrer Unternehmensquartalsberichte, der noch nicht vollständig automatisiert erstellt wird.“

Durch die Automatisierung werde dem Journalisten ein Werkzeug an die Hand gegeben, das ihm Routinetätigkeiten abnehmen kann. So bleibe mehr Zeit für wichtigere Aufgaben, beispielsweise den investigativen Journalismus. Guter Journalismus ist ein Mix aus validen Informationen, belastbarer Recherche, Neutralität und Unterhaltung. Für eine schwarzhumorige Kolumne etwa fehlt es dem Roboterjournalisten an Fantasie, für Börsenberichte andererseits fehlt es dem Journalisten an Zeit.

Roboterjournalismus 3Bild Roboterarm: Wacko Photographer, Lizenz: Creative Commons; Bild Schreibmaschine: J E Theriot, Lizenz: Creative Commons (Bilder zusammengefügt)

Die Gefahr, dass Medienunternehmen und Verlage die Technologie zur Rationalisierung nutzen, bestehe laut Graefe jedoch auch. Umso wichtiger würden daher journalistische Kernkompetenzen wie Recherche, Interviewführung und Storytelling werden, insbesondere auch die Fähigkeit, Daten auszuwerten und zu interpretieren. Johannes Sommer sieht die Gefahr für diejenigen Redakteure, deren Aufgabe bei der textlichen Verarbeitung von Daten endet. „Der Journalismus geht glücklicherweise ein gutes Stück darüber hinaus.“ Stil, Einordnung und Reflexion bleiben – vorerst – noch Aufgabe des Journalisten aus Fleisch und Blut.

Die Koexistenz von Mensch und Maschine

Und wie kommen die automatisch erstellten Texte bei den Lesern an? „Unsere Studien haben gezeigt, dass Leser automatisierte Nachrichten zwar als glaubwürdiger empfinden, allerdings auch schlechter hinsichtlich des Lesevergnügens bewerten“, erklärt Andreas Graefe.

Die Koexistenz von Mensch und Maschine in Redaktionen ist also durchaus möglich. Richtig eingesetzt, kann sogar eine Symbiose entstehen, durch die Redaktionen zukünftige Herausforderungen bewältigen können. Dann wird der “Robo-Mitarbeiter” vielleicht sogar zum geschätzten Kollegen – nur mit dem Plausch beim Mittagessen und dem Feierabendbier bleibt es schwierig.

Dieser Artikel wurde vor mehr als einem Jahr veröffentlicht. Sein Inhalt ist möglicherweise nicht mehr aktuell.