Die Wissenschaften und Universitäten gehören zu jenen Bereichen, die sich nicht vorwerfen lassen müssen, die Digitalisierung verschlafen zu haben. Digitale Publikationen haben aber einen gravierenden Nachteil: Sie ermöglichen die Erhebung und Auswertung der Daten durch Verlage.
Das klassische gedruckte Buch hatte einige Vorteile. Einer davon war, dass es seinen Leser nicht überwachen konnte. Wie lange man auf einer Seite bleibt, was man überblättert, welche Fußnoten man betrachtet, wann man in das Literaturverzeichnis wechselt – das Buch wusste es nicht und der Verlag ebenso wenig.
Das gedruckte Medium ist nicht gänzlich Tod, aber in immer mehr Fächern erfolgt ein Großteil der Wissenschaftskommunikation nicht mehr über gedruckte Medien.
Das eröffnet ganz neue Chancen und Möglichkeiten und viele davon sind positiv. Beschleunigung der wissenschaftlichen Erkenntnis, globale Verteilung von Informationen, potenziell sinkende Barrieren für Publikation und Lektüre, Preprints, Postprints, Zweitveröffentlichung, Open Access – nur um mal ein paar Schlagwörter zu nennen.
Damit einhergehen aber auch Risiken und nicht intendierte Nebenwirkungen. Die großen Wissenschaftsverlage, die im Zuge einer umfassenden Marktkonzentration quasi Monopolstellungen erreicht haben, möchten ihre lukrativen Geschäftsmodelle keineswegs preisgeben. Stattdessen erschließen sie sich ganz neue Möglichkeiten: Umfassende Datenerhebung, Datenauswertung und vor allem Kommerzialisierung der gewonnenen Daten.
Die Verlage beginnen zunehmend dieses Potenzial zu entdecken (voran geht mal wieder Elsevier – wen wundert es) mit allen Gefahren für die Wissenschaft.
Der Themenkomplex ist viel zu groß für einen Blogartikel, aber wer sich für den Themenkomplex interessiert, dem sei das aktuelle Informationspapier der DFG zu dem Thema empfohlen. Die wesentlichen Punkte kann man auch bei netzpolitik.org nachlesen.
Die Entwicklung ist so langsam in den Fachkreisen angekommen und dürfte noch einige Diskussionen nach sich ziehen. Ausgang der Entwicklung ungewiss.