Von Konrad Weber* aus Barcelona

Rund 500 Journalisten haben sich diese Woche am «Global Editors Network» in Barcelona zum Branchenaustausch getroffen. Auf der Themenliste: nichts Geringeres als die Zukunft des Journalismus. Der gewählte Termin war durchaus passend. Nicht nur Journalisten machen sich derzeit Sorgen um ihre Zukunft. Tausende Taxifahrer in ganz Europa wehrten sich am Mittwoch - zum Auftakt der Journalistenkonferenz - mit einem Generalstreik gegen neue Bestell- und Bezahlmodelle via Smartphone, wie sie zum Beispiel der amerikanische Taxiservice Uber anbietet.

Während sich die Taxifahrer noch Gedanken machen, wie sie die Konkurrenz aus dem Internet bekämpfen wollen, tauschen die Journalisten in Workshops und Podiumsdiskussionen ihre digitalen Erfahrungen aus. Dabei taucht immer wieder ein Wort auf: «Roboterjournalismus». Was ist damit gemeint?


Im Chaos nach News fischen
In unterschiedlichen Bereichen – sei dies in der Berichterstattung über Wirtschaft, Sport oder Wetter – unterstützen Computerprogramme Medienschaffende bei ihrer Arbeit. Überall dort, wo auswertbare Daten entstehen, die mit einer gewissen Regelmässigkeit in ein journalistisches Produkt übersetzt werden sollen, machen sogenannte Algorithmen und automatisierte Abläufe in Redaktionen Sinn.

So wurden, seitdem Sie diesen Artikel zu lesen begonnen haben, 300 000 Nachrichten auf Twitter, 250 000 Bilder auf Facebook und 100 Stunden Videomaterial auf Youtube hochgeladen. Bei dieser riesigen Menge von Informationen kann längst nicht mehr jeder einzelne Inhalt manuell ausgewertet werden. Und genau hier setzen Algorithmen an. Bereits jetzt werden Algorithmen zum Filtern und zur Verifikation von «Breaking News» eingesetzt.

Der PC als Börsenkorrespondent
Die Entwickler gehen noch weiter. Derzeit bauen findige Startups Algorithmen, die nicht nur nach Informationen suchen, sondern sie auch sortieren, analysieren und auswerten. In Los Angeles hat der Datenbank-Programmierer Ken Schwencke einen Algorithmus entworfen, der Erdbebenmeldungen sammelt, interpretiert und automatisch einen Text anhand dieser Daten schreibt.

Ein ähnliches Verfahren wendet der Wirtschaftsdienst Bloomberg an. Statt unzählige Journalisten damit zu beschäftigen, täglich Börsendaten einzeln aus verschiedenen Programmen zu übertragen und daraus Kurzmeldungen zu schreiben, greift Bloomberg auf «Narrative Science» zurück. Seit vier Jahren feilt «Narrative Science» am perfekten Algorithmus. Dieser soll einst so spannende und vielfältige Texte verfassen, dass sie sich nicht mehr von manuell verfassten unterscheiden lassen.

Algorithmen können aber nicht nur Texte produzieren. So stellte sich in Barcelona auch das Start-up Wibbitz vor, das aus Texten automatisiert kurze Videos anfertigt. Hierbei sucht der Algorithmus im Internet nach lizenzfreien Bildern und Videos, schneidet sie automatisch zu einem animierten Kurzvideo zusammen und vertont es anschliessend mit einer Sprachsoftware. Dafür benötigt der Computer ganze fünf Sekunden.

Grösstmögliche Transparenz
Der Lebenszyklus von News ist nach der Artikelpublikation im Netz längst nicht abgeschlossen. Auch nach der Veröffentlichung können Algorithmen das Leben von Journalisten erleichtern. Sei dies bei der Verbreitung via Social Media – indem der Algorithmus den perfekten Zeitpunkt errechnet – oder bei der Moderation des eintreffenden Feedbacks.

Was im 20. Jahrhundert in der Textil- und Uhrenbranche die Industrialisierung darstellte, geschieht nun in der Medienbranche. Larry Birnbaum, Professor an der Northwestern University in Illinois, vergleicht deshalb zu Recht die aktuelle Entwicklung mit dem globalen Eroberungszug von Heinz-Ketchup: «Die meisten Leute haben noch nie handgemachtes Ketchup gegessen. Seit Jahren bestimmt bereits der maschinell hergestellte Tomaten-Extrakt den Standard.» Birnbaum vermutet, dass sich bis in 20 Jahren das Nutzungsbedürfnis von Lesern genauso ändern wird.

All die bevorstehenden Veränderungen mögen auf den ersten Blick erschrecken. Doch langfristig sparen Journalisten dank dieser technologischen Entwicklung Zeit und können sich auf wirklich relevante Tätigkeiten konzentrieren: Mehr Raum für Recherche, das Einordnen von Ereignissen und das Verfassen von Hintergrundberichten. Gleichzeitig verlangt die Arbeit mit Algorithmen mehr als je zuvor Sorgfalt der Medienschaffenden und Programmierer. Nur wer über die Entstehung und Aufbereitung der Information grösstmögliche Transparenz herstellen kann, erhält auch in Zukunft das Vertrauen, die kostbare Zeit und Aufmerksamkeit der Leser.

* Konrad Weber ist Multimedia-Journalist in der Informationsabteilung von Schweizer Radio und Fernsehen (SRF).

Mehr Themen finden Sie in der gedruckten Ausgabe oder über E-Paper