Im hart umkämpften Buchmarkt geht es nicht nur literarische Weihen. Es geht auch um Verkaufszahlen. Speziell für kleinere Verlage stellt sich die Frage, ob sie mit dem Buchtitel einen publizistischen und/oder kommerziellen Erfolg landen. Welche Buchtitel soll man ins Programm aufnehmen? Könnte man die Erfolgsformel für ein Buch errechnen und entschlüsseln? Was wie Fiktion tönt, ist bereits Realität.

Um die ökonomischen Risiken zu minimieren, greifen Verlage verstärkt auf künstliche Intelligenz zurück. Die Wissenschafter Jodie Archer und Matthew Jockers haben einen Algorithmus entwickelt, der die Erfolgsaussichten von Büchern vorhersagen soll. Archer, die mehrere Jahre beim Verlag Penguin UK arbeitete, lernte 2007 Matthew L. Jockers, Mitbegründer des Stanford Literary Lab, kennen. Die beiden fütterten den Algorithmus mit insgesamt 20 000 Werken, die in den letzten 30 Jahren publiziert wurden und brachten ihm das «Lesen» bei: Die Maschine sollte lernen, bestimmte Satzbausteine und Wortnennungen zu erkennen und diese mit den Verkaufszahlen zu korrelieren.

Mit Erfolg: Der «Bestseller-ometer» identifizierte 2800 Eigenschaften, die mit dem Erfolg von Büchern assoziiert sind. In ihrem Buch «The Bestseller Code» schreiben Archer und Jockers, dass ihr Algorithmus mit einer Genauigkeit von 80 Prozent einen Bestseller vorhersagen kann. Der Algorithmus mag vor allem weibliche Helden, die in Bestsellern wie «The Girl on the Train» oder «Gone Girl» vorkommen. Viele Abkürzungen. Wenig Ausrufezeichen. Und statt Katzen lieber Hunde.

Wählen Computer Bücher aus?
Was Archer und Jockers mit ihrem Algorithmus praktizieren, ist nur ein Baustein einer immer datengetriebenen Verlagswelt. Mit dem Online-Handel (Amazon) und E-Book-Readern stehen massenhaft Daten zur Verfügung, die Auskunft darüber geben können, welche Bücher gerade nachgefragt werden und sogar, welche Seiten in einem Buch gelesen werden. Der amerikanische Mathematikprofessor Jordan Ellenberg hat zum Beispiel errechnet, dass das viel diskutierte Erfolgsbuch «Das Kapital im 21. Jahrhundert» des Ökonomen Thomas Piketty nur zu 2,6 Prozent gelesen wird – die Markierungen des 800-Seiten-Wälzers enden auf Seite 26. Amazons Lesetracking ist auch das Ende der Illusion, dass Bücher ganz gelesen werden. Doch für Verlage und vor allem Online-Riesen wie Amazon bieten sich neue Einsichten ins Leserverhalten. Die Frage ist: Wer liest hier wen oder was?

Bald werden Bücher die Rezipienten (aus)lesen, während man sie liest. Simon & Schuster, das Flaggschiff der US-Publizistik, hat seinen ersten Datenwissenschafter angeheuert. Und das Traditionshaus Macmillan hat die E-Book-Plattform Pronoun übernommen, nicht zuletzt wegen deren Daten- und Analysekapazitäten. Die spannende Frage ist: Wählen Computer die Werke auf dem Büchermarkt von morgen aus?

Das Berliner Start-up Inkitt ermittelt über seine Plattform Leserdaten und filtert so Geschichten mit Potenzial heraus, die anschliessend veröffentlicht werden. Und das funktioniert so: Auf inkitt.com können Autoren ihre Werke posten und Feedback von den Lesern erhalten. Die Leser haben Zugang zu Tausenden neuer Werke in mannigfaltigen Genres. Doch wie man die Stücke liest, wird in Echtzeit von einem Algorithmus ausgewertet. Auf dieser Grundlage wurde der Roman «Bright Star» der texanischen Autorin Erin Swan ausgewählt, der im Sommer 2017 erscheinen soll. Über die Publikation entscheidet nicht ein Verlagsmitarbeiter, sondern der Algorithmus bzw. die Crowd.

Inkitt-Gründer Ali Albazaz versteht seine Plattform als Experiment, das die Verlagswelt demokratisieren soll. Sein durchaus triftiges Argument ist, dass das traditionelle Auswahlsystem von Verlagen erratisch sei: Der erste Harry Potter von Joanne K. Rowling wurde

12-mal abgelehnt, der Roman «Bis(s) zum Morgengrauen» («Twilight» im Original) 14-mal, Stephen Kings «Carrie» erhielt gar 30 Absagen, ehe er doch in Druck ging. Mit der algorithmischen Auslese soll der Geschmack der Leser auf Anhieb getroffen werden. «Stellen Sie sich eine Welt vor, in der Ihnen garantiert wird, dass ein Buch sich verkauft, bevor es überhaupt publiziert wird», formulierte Albazaz seine Vision.

Nur Indikatoren für den Absatz
Doch die Frage ist, wie der Büchermarkt aussähe, wenn Buchtitel nur noch von Algorithmen selektiert werden. Wollen wir nur die Dinge lesen, wonach wir ohnehin schon suchen? Sind es wirklich nur Daten, die einen Bestseller zum Bestseller machen? Die Sorge ist, dass der Büchermarkt noch stärker homogenisiert wird und auf ökonomische Verwertbarkeit getrimmt wird. Denn der Algorithmus sucht in den Daten ausschliesslich nach Indikatoren für den Absatz.

Dabei ist Quantität nicht unbedingt Qualität. Bücher, die für den Booker Prize oder National Book Award nominiert werden, haben oft geringe Verkaufszahlen zwischen 10 000 und 20 000 Exemplaren. Der Debütroman «The Fishermen» des nigerianischen Schriftstellers Chigozie Obioma verkaufte sich in Grossbritannien lediglich 9000 Mal. Der Erfolg bemisst sich somit nicht nur nach den Verkaufszahlen. Die Methoden sind Ausfluss jener Denkart, dass sich in jede Datenwolke eine Prognose hineinlesen lässt.

Doch mutet es verstörend an, dass Maschinen diktieren, welche Bücher wir lesen. Literatur ist ein vitaler Ausdruck unserer Kultur. Und es gehört doch zum Selbstverständnis einer Kultur, dass wir selbstbestimmt zu einem Buch greifen. Womöglich sagen Computer nicht nur Bestseller voraus, sondern schreiben diese auch. Der Roman «The Day A Computer Writes A Novel», die von einem KI-System mitgeschrieben wurde, schaffte es im März in die zweite Runde eines japanischen Literaturwettbewerbs. Vielleicht schafft es ein computergeneriertes Werk eines Tages in die Bestsellerlisten. Wenn dann noch ein Computer ihren eigenen Erfolg vorhersagt, wären wir von der Maschinenliteratur nicht mehr allzu weit entfernt.

Mehr Themen finden Sie in der gedruckten Ausgabe oder über E-Paper.