IASLonline

Nichtlesen als Methode der Literaturwissenschaft

  • Matthew L. Jockers: Macroanalysis. Digital Methods & Literary History. Urbana, Chicago, Springfield: University of Illinois Press 2013. 192 S. Kartoniert. USD 32,00.
    ISBN: 978-0-252-07907-8.

[1] 

Die vor drei Jahren erschienene Studie von Matthew Jockers ist eine der noch wenigen Monografien, die sich der Praxis einer digitalen Literaturwissenschaft widmen. Sie nähert sich dem Thema von der technologischen Seite her, die Überführung von Datenbefunden in literaturwissenschaftliche Narrative erfolgt nur marginal.

[2] 

Der Titel »Macroanalysis« ist dabei einerseits als Synonym zum Terminus ›Distant Reading‹ zu verstehen, der im Jahr 2000 von Franco Moretti zunächst als ironischer Kampfbegriff geprägt wurde. Zentral für beide Begriffsbildungen ist die Idee, endlich mehr als den durch einen einzelnen Wissenschaftler lesbaren Kanon in den Blick nehmen und analysierbar machen zu können. Andererseits setzt sich Jockers’ Rebranding aber auch programmatisch von Morettis Begriff ab: Jockers bevorzugt als Tätigkeitsbeschreibung »analysis over reading«, denn: »This is no longer reading that we are talking about« (S. 25).

[3] 

Bändigung der Büchermassen

[4] 

Jockers macht an mehr als einer Stelle deutlich, dass die im Buch vorgestellten Methoden kein Ersatz für tradierte Verfahren der Literaturwissenschaft sein können und wollen, sondern eine Ergänzungsmaßnahme, die schlicht mit den zeitlichen und kognitiven Grenzen der menschlichen Lektürefähigkeit zu tun hat. Wie eng diese Grenzen sind, soll einmal mehr ein berüchtigtes Zitat aus der Bonmotschmiede von Arno Schmidt verdeutlichen:

[5] 
»Das Leben ist so kurz ! Selbst wenn Sie ein Bücherfresser sind, und nur fünf Tage brauchen, um ein Buch zweimal zu lesen, schaffen Sie im Jahre nur 70. Und für die fünfundvierzig Jahre, von Fünfzehn bis Sechzig, die man aufnahmefähig ist, ergibt das 3.150 Bände : die wollen sorgfältigst ausgewählt sein !« 1

[6] 

Während Schmidt angesichts dieser natürlichen Grenzen also den Auswahlprozess verschärft (und damit auch für seinen persönlichen Kanon wirbt), ist dies kein Modus für eine Literaturwissenschaft, die angesichts anhaltender Dekanonisierungsprozesse trotzdem noch in der Lage sein will, ihren Gegenstand in seiner ganzen Breite zu vermitteln. Um mit Moretti zu sprechen: »if you want to look beyond the canon […], close reading will not do it«. 2 Diese Aussage ist nun mehr als anderthalb Jahrzehnte alt, und in der Rückschau ist es doch ein wenig überraschend, dass Morettis Erkenntnis und seine daran anschließenden ersten Arbeiten noch fast vollkommen ohne den Computer als Forschungsinstrument auskamen. 3

[7] 

Das Nichtlesen hat angesichts des banalen Faktums des Nichtalleslesenkönnens schon stets seinen strategischen Platz unter den Methoden der Literaturwissenschaft. Als Pierre Bayard in seinem 2007 erschienenen Buch zum Thema die Frage stellte: »Comment parler des livres que l’on n’a pas lus ?«, war das vor allem als unterhaltsame Provokation gemeint. Angesichts der von Arno Schmidt errechneten Buchlesevermögensobergrenze von 3.150 Bänden ist diese Frage aber jederzeit akut. Gerade eine Literaturgeschichtsschreibung, die sich auch jenseits der Höhenkammtexte am Big Picture versuchen will, muss zwangsweise Einschätzungen zu Werken enthalten, die nicht alle auf Komplettlektüren basieren können.

[8] 

Heinz Schlaffer hat in seinem nach wie vor lesenswerten Aufsatz »Der Umgang mit Literatur. Diesseits und jenseits der Lektüre« allein siebzehn Arten des Lesens eines Werks aufgezählt, von denen die wenigsten mit der vollständigen Lektüre dieses Werks zu tun haben. 4 Notabene, Schlaffers Aufsatz ist so alt wie die Emergenz des ›Distant Reading‹-Begriffs, und hier, in diesem Kontext, sollten sich die Debatten um die Notwendigkeit und Möglichkeiten der Digital Literary Studies verorten. Denn dann erscheinen die computerbetriebenen Forschungen einfach als weitere Form des Umgangs mit den kognitiven Grenzen selbst eines kollektiven Lese-Ichs.

[9] 

Vorübung mit Metadaten

[10] 

»Macroanalysis« gliedert sich in drei Hauptkapitel: »Formation«, »Analysis«, »Prospects«. Das erste dieser Kapitel dient sowohl der Motivierung als auch der Vermittlung. Jockers macht sich zum einen für datengetriebene empirische Befunde stark, die er gegen die Erkenntnisse des einzelnen lesenden Literaturwissenschaftlers absetzt, die er wiederholt als »anecdotal« bezeichnet. Er macht zum anderen ebenso deutlich, dass er den immer wieder neuen Relektüren kanonischer Texte nicht feindlich gegenübersteht, sie jedoch methodisch ergänzt wissen möchte (vgl. S. 8f.). Erkenntnistheoretisch sieht er die digitale Literaturwissenschaft sowieso noch ganz am Anfang, bisher habe man es im Normalfall lediglich mit einer Art »enhanced search« zu tun (S. 17).

[11] 

Nach dem ca. 30-seitigen Einführungsteil folgt auf 135 Seiten der titelgebende »Analysis«-Teil, der bis auf das fünfseitige Outro-Kapitel den Rest des Bandes ausmacht. Bevor sich Jockers seinem eigentlichen Volltextkorpus mit einigen tausend Romanen widmet, beleuchtet er in zwei Unterkapiteln, wie man Metadaten und ein kleines Teilkorpus von vorerst 106 Romanen zum Sprechen bringen kann.

[12] 

Er beginnt mit einer Bibliografie von 758 Romanen irischstämmiger US-Autoren, die im Verlauf von 250 Jahren erschienen sind und die er mit Angaben zu Handlungsorten und zum Geschlecht des Autors bzw. der Autorin angereichert hat (vgl. S. 44). Schon durch dieses einfache Vorgehen gelingt es Jockers, einen blinden Fleck der literaturhistorischen Komponente der Irish-American Studies zu identifizieren. Die von seinem Doktorvater Charles Fanning beschriebene »lost generation« irisch-amerikanischer Autoren zwischen 1900 und 1930 sei faktisch gar keine: In dieser Zeit habe es sehr wohl eine starke Literaturproduktion aus dieser ethnischen Ecke gegeben, nur nicht unter männlichen Ostküstenautoren mit ihren urbanen Romanschauplätzen – auf diese hatte Fanning offenkundig unbewusst seinen Schwerpunkt gelegt (vgl. S. 38–40). Anhand seiner in Verlaufsdiagramme übersetzten Bibliografie stellt Jockers nun fest, dass es im fokalen Zeitraum deutlich mehr Romane gebe, welche die Kriterien »female, western, and rural« erfüllen (S. 46). Auch wenn Jockers hier mangels Volltexten nicht inhaltlich argumentiert, demonstriert er, wie schon eine eher banale Metadatenanalyse als Korrektiv dienen kann.

[13] 

Seine stilistischen Untersuchungen konzentriert er dann zunächst auf das erwähnte Subkorpus von 106 Romanen (aus zwölf Genres), die er in insgesamt 1.060 Teilstücke zerlegt, die pro Roman jeweils gleich lang sind. Ziel ist es, die Romane ohne eigene (Re-)Lektüre verlässlich klassifizieren zu können, als Marker dienen ihm dabei lediglich 42 hochfrequente Funktionswörter und Satzzeichen (7 von diesen, 35 von jenen, gelistet in einer Fußnote auf S. 69).

[14] 

Die Befunde lesen sich einigermaßen trocken: Im Bildungsroman seien die Wörter »like«, »young« und »little« überrepräsentiert, die Wörter »upon«, »by«, »this« unterrepräsentiert; in den Newgate-Romanen kämen viele Ausrufezeichen vor usw. (vgl. S. 77). Die Schlussfolgerung lautet demnach, »that a genre signal exists and can be detected at the level of high-frequency word and punctuation features« (S. 78f.). Wenn Jockers in seltenen Fällen den Sprung von Daten zu Erkenntnissen wagt, klingt das so: »It turns out that to write a Gothic novel, an author inevitably ends up using more positional prepositions than if writing a Bildungsroman.« (S. 96)

[15] 

Allerdings müsse man bei dieser Genre-Klassifizierung auch diejenigen Features isolieren, die für andere Einflussfaktoren verantwortlich seien (vgl. S. 79). Er konfrontiert nun die 161 häufigsten Wörter und Punktuationszeichen mit fünf Kategorien, neben dem Genre auch noch Autor, Romantitel, Geschlecht und Jahrzehnt der Publikation (vgl. S. 81). Bei dieser Methode ist offenbar das Autorschaftssignal am stärksten, in 93 Prozent der Fälle werde nur aufgrund der semantisch eigentlich eher unbedeutenden meistbenutzten Wörter und Satzzeichen der Autor richtig erkannt. Das wertet Jockers als Beweis für die Brauchbarkeit dieser Methode bei der Autorschaftsattribution (vgl. S. 81), was er mit einem kleinen Seitenhieb gegen die »Tod des Autors«-These garniert: »The data are undeniable.« (S. 93)

[16] 

Her mit dem Volltextkorpus

[17] 

Jockers hat sich nach eigenen Aussagen sieben Jahre lang intensiv mit dem für diesen Band zentralen Volltextkorpus beschäftigt, dem »Stanford Literary Lab corpus of some thirty-five hundred nineteenth-century novels« (S. 122). Es handelt sich um englischsprachige Romane aus dem 19. Jahrhundert, die von britischen, irischen und amerikanischen Autorinnen und Autoren stammen. Die 3.346 Romane, die im Korpus letztlich enthalten sind, liegen übrigens relativ genau im Bereich der Arno Schmidt’schen Lesevermögensrechnung. So groß ist das Korpus also gar nicht, jedenfalls erfüllt es nicht den Tatbestand »Big Data«. Zu bemerken ist ansonsten auch, dass das Korpus nicht frei online zur Verfügung steht und die folgenden Berechnungen daher (noch) nicht reproduzierbar sind, obwohl es sich um gemeinfreie Texte handelt.

[18] 

Jockers’ erstes Experiment ist so simpel wie zunächst verblüffend. Er zeigt, wie man nur anhand des Gebrauchs des Artikels »the« mit relativ großer Wahrscheinlichkeit feststellen kann, ob es sich beim Urheber eines Werks um einen amerikanischen oder britischen handelt (vgl. S. 105–108). Erklären kann er sich dies nicht wirklich (vgl. S. 108), es handele sich schlicht um »forces beyond authorial creativity« (S. 110). Befunde wie dieser könnten denn doch leicht einen Vorwurf auf sich ziehen, wie er kürzlich in einer gegen die Durchdigitalisierung und -ökonomisierung der philologischen Fakultäten gerichteten und insgesamt etwas zu erratisch geratenen Polemik im »LA Review of Books« geäußert wurde: »the more interesting side of Digital Humanities research has a tendency to resemble a slapdash form of computational linguistics adorned with theoretical claims that would never pass muster within computational linguistics itself«. 5

[19] 

Im Umgang mit seinen Diagrammen sucht Jockers nicht den direkten Anschluss an literaturwissenschaftliche Theorien, sondern interpretiert sie bis zu einer gewissen Grenze erklärtermaßen intuitiv: »The temptation to ›read‹ even more into these patterns is great.« (S. 115) Seine Methode sei »imperfect, but not entirely useless« (S. 117).

[20] 

Wie interpretiert man Korpora?

[21] 

Im nächsten Kapitel wird es dann inhaltlicher, mithilfe von »Topic Modeling« soll die literarische Verhandlung von »Themen« untersucht werden, wobei hiermit kein terminus technicus gemeint ist. Jockers verwendet zwar »theme«, »topic« und »motif« in seinen Ausführungen synonym (vgl. S. 123, Fn.), allerdings sind die Evidenzen zusammengenommen viel zu schwach, um einen Beitrag zur literaturwissenschaftlichen Motivforschung oder Thematologie zu leisten. Algorithmisch fallen in diesem Abschnitt allerdings schon interessantere Konzepte an, schließlich seien topic models »the mother of all collocation tools« (S. 123). Statt einfachen Wortfrequenzlisten, auf direkter textlicher Nachbarschaft beruhenden Kollokationen oder »Key Word in Context«-Listen betrachtet Jockers nun etwas größere Zusammenhänge.

[22] 

Das Prinzip ist rasch erklärt: »the model identifies words that tend to co-occur together in multiple places in multiple documents« (S. 124). Jedoch nicht alle Wörter: Anders als bei den stilometrischen Untersuchungen werden diesmal die semantisch wenig spezifischen hochfrequenten Funktionswörter (Artikel, Konjunktionen, Präpositionen usw.) vorher aussortiert, da sie zur Inhaltsanalyse nicht geeignet sind. Die Stoppwortliste umfasst außerdem noch mehrere tausend Eigennamen. 6 Bei den für die Analyse verbliebenen Inhaltswörtern ist es nach dem »bag of words«-Prinzip egal, in welcher Reihenfolge sie im Originaltext vorkommen. Wichtig seien Kohärenz und Interpretabilität der Topics, d. h., der operierende Literaturwissenschaftler muss Sinn in die Ergebnisse lesen können (vgl. S. 128f.).

[23] 

Mit dem in Java geschriebenen Softwarepaket MALLET (»MAchine Learning for LanguagE Toolkit«) lässt sich Jockers aus seinem Korpus 500 Topics suchen bzw. generieren. Wenn in einem erkannten theme plot etwa die Wörter »office«, »business«, »clerk« und »desk« besonders oft gemeinsam vorkommen, betitelt er diesen »Clerks and Offices« – diese Leistung ist nicht automatisierbar, sondern muss aufgrund der Ergebnisse vom Fachwissenschaftler getroffen werden. Jockers behandelt nach diesem Prinzip alle 500 Topics, von denen er 26 wegen Unbrauchbarkeit beiseitelassen muss. Die übrigen Topics allerdings sind durchweg nachvollziehbar betitelt (da eine Auflistung im Buch selbst keinen Platz hatte, wurde diese auf die buchbegleitende Website verlagert 7 ).

[24] 

Auf die hinter dem Topic Modeling stehende Mathematik geht Jockers nicht weiter ein, was dem Lesefluss zugutekommt. An entsprechenden Einführungen zum Thema herrscht auch kein Mangel. 8 Die größte Krux beim Topic Modeling ist, dass es keine bewährten Standardparameter gibt, keine Goldene Regel, nach der man die Anzahl der Topics und die Segmentierungsgröße festlegen kann, um das bestmögliche Ergebnis zu erzielen (vgl. S. 128, S. 134). Die Qualität der gefundenen Topics (wie gesagt, es handelt sich nicht automatisch um literarische 'Themen') muss durch die Erhöhung oder Verringerung der angestrebten Anzahl von Topics und durch das Ändern der Segmentierungsgröße verbessert werden, und man kann davon ausgehen, dass Jockers dies ausgiebig getan hat.

[25] 

Die präsentierten Daten steigern die Spannung auf die folgende Analyse. Denn Jockers schreibt ja nicht über Texte, sondern über ein Korpus. Von Franco Moretti stammt die Aussage: »Corpora […] have no meaning.« 9 Was jedoch nur richtig ist, wenn man als einzig mögliche Kategorie von »meaning« die irgendwie eruierbare(n) Autorintention(en) begreift, die man an Einzeltexte oder kleinere, fest umrissene Textkonvolute rückbinden kann. Die Frage ist: Wie schreibt man dann eigentlich über die Inhalte von literarischen Volltextkorpora?

[26] 

Im Volltextkorpus enthalten sind 1.363 Werke von Frauen, 1.753 von Männern, 230 von unbekannter Urheberschaft. Die Topic-Analyse nun fordert zunächst einige Stereotypen zutage: Frauen scheinen vermehrt über »Affection and Happiness« zu schreiben, über »Female Fashion« und »Infants«; Männer über »Villains and Traitors«, »Quarrels and Dueling« und »Enemies«. Genderneutrale Topics sind ländliche Themen, aber auch drei Topics, die sich um »wealth, business affairs, and social rank« drehen (S. 136–138). Nun ja.

[27] 

Interessanter sind dann die Topics der anonymen Autoren, die in ihren Werken vermehrt religiöse und nationale Themen verhandeln, generell Themen, die im Hinblick auf mögliche Folgen der freien Meinungsäußerung problematisch sein könnten. Was aber tut man nun mit derlei Ergebnissen? Können sie mehr sein als die Bestätigung von Bekanntem? Man sollte sich klarmachen, dass derlei Erkenntnisse aus dem Umgang mit großen literarischen Korpora nur scheinbar unterkomplex sind. Sie dienen auch der Verständigung über die Validität des algorithmischen Vorgehens. Immerhin stellt Jockers in Aussicht, dass wir es hier mit »an undoubtedly rich area for further research« zu tun haben (S. 140), verlegt so aber die Anschlussfähigkeit derartiger korporabezogener Ergebnisse an literaturwissenschaftliche Diskussionsfäden routiniert in die unbestimmte Zukunft.

[28] 

Einflussforschung

[29] 

Nach der Vorstellung einzelner Methoden geht Jockers nun daran, verschiedene vorgestellte Methoden zu kombinieren. Im Unterkapitel »Influence«, das den »Analysis«-Teil beschließt, geht es um die Ermittlung literarischer Vorbilder: Wer wurde von wem stilistisch und thematisch beeinflusst? Jockers kombiniert stilistische und thematische Befunde (deren Erhebungsmethode er separat in vorangegangenen Kapiteln vorgestellt hat) und erzeugt eine Matrix, in der er alle 3.346 Romane mit 578 ausgewählten Eigenschaften kreuzt (vgl. S. 157), und zwar den brauchbaren (d. h. vom Literaturwissenschaftler zuordenbaren) der knapp 500 Topics, die er extrahieren konnte, sowie ca. 100 hochfrequenten Wörtern (die genaue Anzahl gibt er nicht explizit an).

[30] 

Dieses und ähnliche Verfahren der Stilometrie kommen innerhalb der Digital Humanities momentan breit zum Einsatz und werden aktiv weiterentwickelt. Jockers errechnet mit seiner Methode ein »unique book signal« (S. 158), das sich jeweils als Datenpunkt in einem 578-dimensionalen Raum wiederfindet. Grafisch darstellen kann man diesen Raum nicht mehr ohne Weiteres, allerdings trotzdem mit Hilfe der Euklidischen Distanz den Abstand zwischen den einzelnen 3.346 Romanen berechnen, was Jockers mit Hilfe der auf statistische Auswertungen optimierten Programmiersprache R erledigt. Als Ergebnis erhält er eine 3.346×3.346-Matrix, die »stylistic-thematic distances« beinhaltet (S. 162).

[31] 

Es leuchtet sofort ein, dass man nicht mehrere Millionen Abstandswerte einen nach dem anderen durchgehen kann. Jockers geht für die Auswertung zu einer Visualisierungsmethode über, aus der Matrix wird ein Netzwerkgraph. Darin stellen die einzelnen Romane die Knoten dar, der berechnete Abstand wird als Gewichtung für die jeweilige Kante zwischen zwei Knoten benutzt (vgl. S. 162f.). Jockers hat die Daten stark bereinigt, bevor er sie in das Netzwerkanalyseprogramm Gephi gefüttert hat, und berücksichtigt etwa nur eine Richtung der Romanbeziehungen (nämlich den etwaigen Einfluss vom jeweils älteren auf den jeweils neueren Roman). Von den in Gephi voreingestellten Clusteralgorithmen greift er auf »Force Atlas 2« zurück und nutzt zudem einige Metadaten (Publikationsdatum und Geschlecht des jeweiligen Autors bzw. der jeweiligen Autorin), um die Knoten zu kolorieren.

[32] 

Und siehe da, männliche und weibliche Autoren clustern jeweils zusammen (S. 165f.). Wenn das Werk einer Autorin doch woanders hingruppiert wird, sieht Jockers das als »a fact that suggests there may be something special or unique about this particular book« (S. 166, Fn.). Vor einer Gruppe von 15 Ausreißern kapituliert er und delegiert die Frage, was diese verbinden könnte, an die Community (vgl. S. 167).

[33] 

Am Ende berechnet Jockers noch den PageRank aller Knoten im Netzwerk. Der PageRank – benannt nach einem der Google-Gründer, Larry Page – ist ein Maß, das solche Links in einem Netzwerk hoch bewertet, die mit anderen hoch bewerteten Links in enger Beziehung stehen. Ganz oben in der Top-3 steht der »Tristram Shandy« und damit ein Klassiker der Weltliteratur, was Jockers als Bestätigung seines Vorgehens wertet (vgl. S. 168). Zweit- und drittplatziert sind die Romane »The Whirlpool« von George Gissing und »Venetia« von Benjamin Disraeli – letzterer ein Nebenwerk des Autors, dessen hohen PageRank-Wert sich Jockers nicht erklären kann, über den er auch nicht weiter spekuliert.

[34] 

Kurzum, Jockers beschreibt genau, wie er vorgeht, meist plausibel intuitiv, hangelt sich aber entlang von letztlich willkürlichen Entscheidungen, die auch jede für sich in eine falsche Richtung geführt haben könnte. Allerdings liegt in der genauen algorithmischen Darlegung auch der große Vorteil einer digitalen Literaturwissenschaft, ein Vorteil, den der an der McGill University in Montréal lehrende Digitalgermanist und -komparatist Andrew Piper kürzlich im Vorwort zur ersten Ausgabe des »Journal of Cultural Analytics« so beschrieben hat (pars pro toto kann man hier auch »digital literary studies« statt »cultural analytics« lesen):

[35] 
»The explicitness of cultural analytics means that others can share in the steps of the analyst’s knowledge. They can correct those steps and challenge them, or they can build on them and refine them because those steps have been made more legible.« 10

[36] 

Was der Analytiker Jockers tut, trägt durchaus Züge einer Laborkittelwissenschaft. Hier bricht sich eine neue Art literaturwissenschaftlichen Experimentierens Bahn, die gerade dabei ist, sich zum Paradigma auszubilden. Jockers konzediert zwar, dass seine Methode angesichts einiger unverständlicher Ergebnisse vorerst gescheitert sein könnte, auch angesichts fehlender probater Evaluierungsschritte. Im Sinne des Experimentierens kann eine solche defensive Erkenntnis aber trotzdem wertig sein.

[37] 

Zumal Jockers sich nicht in digitalen Dilemmata verliert, sondern immer wieder zu seiner vermittelnden Position zurückfindet: Egal, wie plausibel Ergebnisse erscheinen, jede Makroskalenbeobachtung müsse mit einem »full-circle return to careful, sustained, close reading« einhergehen (S. 168). Ob aber zum Beispiel eine Lektüre von Disraelis »Venetia« irgendetwas zutage fördern würde, das noch etwas mit den berechneten Features zu tun hat, ist mehr als fraglich.

[38] 

Fazit

[39] 

Die Methoden, die Jockers zur Anwendung bringt, sind meist simpel, ausgerichtet auf Wortfrequenzen. Trotzdem gelingt es ihm, einiges an interpretierbarem Material zu generieren. Die Evidenzen, die er findet, sind manchmal banal, manchmal unverständlich, manchmal vielversprechend. Jockers reicht sie ohne große Schlussfolgerungen ans Fach zurück, was durchaus im Sinn der Sache ist.

[40] 

Dieses Zur-Diskussion-Stellen verdankt sich aber auch dem Umstand, dass für viele der Funde noch gar keine Sprache gefunden ist, die sie inhaltlich anschlussfähig machen würde für die Weiterverarbeitung im literaturwissenschaftlichen Diskurs. Es ist jedenfalls nicht damit getan, hochkomplexe komparatistische Sachverhalte auf berechenbare Einheiten zu reduzieren, wenn also zum Beispiel der »Abstand« zwischen »Moby Dick« und »Gordon Pym« auf einmal ganz konkrete 0,13125092 Einheiten beträgt (vgl. S. 62; Jockers schlägt übrigens zur besseren Vorstellbarkeit als Abstandseinheit »Inches« vor).

[41] 

So ist Jockers’ Buch das technisch-praktische Pendant zum ebenfalls 2013 erschienenen Sammelband »Distant Reading« mit den eher vordenkerischen Beiträgen Franco Morettis. »Macroanalysis« zeigt, welche Methoden gerade aktiv in der digitalen Literaturwissenschaft zur Anwendung kommen, vor allem im äußerst lebendigen Bereich Stilometrie, zeigt aber vor allem auch, was im Moment das größte Desiderat der Digital Humanities ist: berechnete Fakten in fachlich relevante, evaluierbare Narrative zu übersetzen.

*

 
 

Anmerkungen

Arno Schmidt: Ich bin erst sechzig. [1955.] In: Bargfelder Ausgabe. Werkgruppe I. Band 4. Zürich: Haffmans 1987. S. 30f.

   zurück

Franco Moretti: Conjectures on World Literature. In: Ders.: Distant Reading. London; New York: Verso 2013. S. 43–62, hier S. 48.

   zurück

Vgl. hierzu Peer Trilcke u. Frank Fischer: Fernlesen mit Foucault? Überlegungen zur Praxis des distant reading und zur Operationalisierung von Foucaults Diskursanalyse. In: foucaultblog, 26. April 2016. DOI: 10.13095/uzh.fsw.fb.141.

   zurück

Vgl. Heinz Schlaffer: Der Umgang mit Literatur. Diesseits und jenseits der Lektüre. In: Poetica 31 (1999), S. 1–25.

   zurück

Daniel Allington, Sarah Brouillette u. David Golumbia: Neoliberal Tools (and Archives). A Political History of Digital Humanities. In: Los Angeles Review of Books, 1. Mai 2016. URL: <https://lareviewofbooks.org/article/neoliberal-tools-archives-political-history-digital-humanities/>.

   zurück

Die vollständige Stoppwortliste ist unter http://www.matthewjockers.net/macroanalysisbook/expanded-stopwords-list/ zu finden.

   zurück

Siehe etwa die Rubrik »Where to start« in David Mimnos Topic-Modeling-Bibliografie: http://mimno.infosci.cornell.edu/topics.html.

   zurück

YouTube-Video: »Franco Moretti at the Institute for World Literature, University of Lisbon: ›Patterns‹, 1 July 2015«. URL: <https://www.youtube.com/watch?v=zEkfr7Idrw4#t=15m4s>.

   zurück
10 

Andrew Piper: There Will Be Numbers. In: Journal of Cultural Analytics, 23. Mai 2016. URL: <http://culturalanalytics.org/2016/05/there-will-be-numbers/>.

   zurück