Logo der OA Zeitschrift BRaIn

Wir | Editionsrichtlinien | Impressum | Disclaimer
Inhaltsverzeichnis
Ausgabe I/2008 Ausgabe II/2008
subglobal5 link | subglobal5 link | subglobal5 link | subglobal5 link | subglobal5 link | subglobal5 link | subglobal5 link
subglobal6 link | subglobal6 link | subglobal6 link | subglobal6 link | subglobal6 link | subglobal6 link | subglobal6 link
subglobal7 link | subglobal7 link | subglobal7 link | subglobal7 link | subglobal7 link | subglobal7 link | subglobal7 link
subglobal8 link | subglobal8 link | subglobal8 link | subglobal8 link | subglobal8 link | subglobal8 link | subglobal8 link

Tagung zum Thema E-books

3. Konsortialtag des Friedrich-Althoff-Konsortiums

von Alexander Mehwald

Am 21. April 2009 fand in der Hertie School of Gouvernance Berlin der dritte Konsortialtag des Friedrich-Althoff-Konsortiums zum Thema E-books statt. Wie am Datum ersichtlich, ist dieser Artikel alles andere als zeitnah. Allerdings gibt der zeitliche Abstand die Möglichkeit, den Inhalt der Tagung noch einmal gründlich zu überdenken und zu bewerten.
Schwerpunkt (und Grund für das leicht gequält wirkende Lächeln der anwesenden Studentenschaft) waren Nutzungsstatistiken im Bereich E-books.

Dieses Thema wurde in drei Abschnitten abgehandelt, beginnend mit einer Einführung in den Standard COUNTER und die Sicht der Verlage auf denselben. Dabei wurde offensichtlich, dass Standards für Nutzungsdaten ebenso nützlich wie schädlich sein können. Natürlich scheint es für eine Bibliothek sinnvoll, Kaufentscheidungen aufgrund der Nutzungsdaten zu treffen. Allerdings ist es für gewinnorientierte Verlage ebenso sinnvoll, die Nutzungsstatistik so zu manipulieren, dass ihr Produkt für Bibliotheken eine sinnvolle Kaufentscheidung scheint. Ironischerweise sind es gerade Standards wie COUNTER die in beiden Fällen äußerst hilfreich sind. Bibliotheken bekommen dank COUNTER vergleichbare Nutzungsstatistiken, Verlage eine Gebrauchsanleitung wie sie ihr Angebot aufbereiten müssen, um hohe Zugriffszahlen zu erreichen. Wenn es derart verlockend gemacht wird, auf einen Standard hin zu optimieren, bleibt zu erwarten, dass dabei vergessen wird, ein für den Kunden optimales Angebot zu entwickeln.
Dazu ein Beispiel: Da bei E-books die Kapitel meist einzeln heruntergeladen werden, jeder Download aber als Zugriff auf das gesamte Buch gezählt wird, folgt natürlich, dass ein Buch mit vielen Kapiteln höhere Zugriffszahlen hat als eines mit wenigen. Optimierungen von Verlagen in dieser Hinsicht sind also zu erwarten. Es wäre abwegig von einem gewinnorientierten Unternehmen zu erwarten, eine derartige Systemschwäche nicht auszunutzen. Damit ist die Vergleichbarkeit der Daten, das Hauptinteresse der Bibliotheken, im Grunde nicht mehr gegeben, weil man nicht mehr die tatsächliche Nutzung vergleicht. Stattdessen nur, wie weit sich die Verlage an den Standard angepasst haben. Ganz abgesehen von der Frage, wie sinnvoll es ist, eine Kaufentscheidung anhand eines Systems zu treffen, das vom Verkäufer manipulierbar ist.

Sind Standards also der falsche Weg? In der Diskussion am Ende der Veranstaltung fragte jemand, warum diese Vielzahl von Daten überhaupt erhoben wird und wie sinnvoll die Schlüsse sind, die wir daraus ziehen können. Bei einem herkömmlichen Buch kann es vorkommen (bei bestimmten Fach- und Lehrbüchern ist es sogar wahrscheinlich), dass es zwar einen Monat lang ausgeliehen, davon aber lediglich 20 Minuten in Benutzung war. Nämlich genau die 20 Minuten, die man braucht, um den (mathematischen) Beweis abzuschreiben. Im klassischen Umfeld würde man das Buch als sinnvolle Investition betrachten (es war ja ausgeliehen), als E-book würde es vermutlich durchfallen. Wobei man hier noch beachten sollte, dass man zu den tatsächlichen Nutzungsdaten sowieso keine Aussage machen kann: Nachdem der Download abgeschlossen und die Datei auf dem lokalen Rechner gespeichert ist, kann das Buch täglich oder nie genutzt werden ohne die Nutzungsstatistik in irgendeiner Form zu beeinflussen. (Digitale Schildbürger, die ein E-book bei jeder Nutzung erneut kostenpflichtig herunterladen sind hier unberücksichtigt.) Interessante Frage: Was passiert mit E-books, die auf einem Proxyserver zwischengespeichert werden? Diese können theoretisch von allen Institutsmitgliedern abgerufen werden, ohne dass es jedes Mal neu vom Verlag übertragen würde – mit nur einem gezählten Download könnten so 1000 Wissenschaftler befriedigt werden…

Im zweiten Abschnitt ging es um die Auswertung der Nutzungsstatistiken vermittels entsprechender Tools. Vorgestellt wurden Scholary Stats und das Verde- (FAK) sowie das HeBIS Statistiktool. Das Ergebnis dieser Vorträge lässt sich relativ kurz zusammenfassen: Für den normalen Bibliothekar wird es wohl bei der Tabellenkalkulation seiner Wahl bleiben, wenn er überhaupt den erheblichen Zeitaufwand betreiben möchte, gründliche Analysen seiner Nutzungsdaten anzustellen. Scholary Stats ist als "Data Harvester" zwar gut geeignet, um mit relativ wenig Aufwand an viele Daten zu kommen, eine tiefer gehende Auswertung ist mit dem Programm aber nicht möglich. Die beiden Tools der Konsortien waren zwar interessant, sind aber nur für Mitglieder gedacht, was die entsprechenden Vorträge zum bibliothekarischen Equivalent eines Maybach-Tests in der AutoBild macht: Schön zu wissen, dass es das gibt, nur nutzen wird man es wohl nie.

Womit wir beim dritten und letzten Abschnitt der Tagung wären: Was machen Bibliotheken nun mit den Nutzungsdaten? Sammeln kann man eine Menge und die Anlage eines riesigen Datenfriedhofs (natürlich unter einem schmückenden Namen) macht sich auch ganz hervorragend im Jahresabschlussbericht.
In der Realität scheint sich die Auswertung auf ein (sinnvolles) Minimum zu beschränken: So wird an der UB Potsdam anhand der Daten berechnet, ob eine Datenbank pro Artikel billiger als SUBITO ist – wenn ja, bleibt das entsprechende Abo erhalten. Bei der IGAFA Berlin werden die Nutzungsdaten benötigt, um die Kosten für Datenbanken auf die elf angeschlossenen Institute umzuleiten. Über diese offensichtliche Nutzung scheinen die wenigsten Einrichtungen hinauszugehen. Grund dafür dürfte der schon im letzten Abschnitt erwähnte erhebliche Zeitaufwand für eine Auswertung sein. Oder einfach die Einsicht, dass uns alles – obwohl wir zu E-books jede Menge Nutzungsdaten zur Verfügung hätten –, was über die klassischen Angaben, die wir auch zu Papierbüchern machen können, hinausgeht, nicht zu interessieren hat.

Was bleibt als Fazit? Zunächst Skepsis gegenüber Nutzungsdaten. Der Anblick von Verlagsvertretern, die bei der Frage: "Was machen SIE eigentlich mit den Nutzungsstatistiken?" eine Art Wettbewerb im Am-Thema-vorbeireden starten, ist auch nicht sonderlich hilfreich, um diese Skepsis zu mindern.
Zudem sollte man auch an die Zukunft denken. Es gibt einen schönen Merksatz zum Digital Native: Wenn dieser eine bestimmte Quelle nicht online vorfindet, benutzt er eine vergleichbare oder verzichtet ganz. Man wird diese Menschen nur in Ausnahmefällen zurück zum Papierbuch bringen. Es ist diese Gruppe, die als "early adopter" (Trendsetter) E-books in die Gesellschaft einführt. Wenn wir durch Sparmaßnahmen aufgrund von Nutzungsdaten diese Gruppe zu anderen Quellen treiben, werden wir sie und damit die Masse der Konsumenten, die ihnen folgen, nie wieder als Kunden gewinnen können.
Der Erhalt von Kunden wird, sobald ein erster erschwinglicher E-Reader auf E-Ink-Basis auftaucht, sowieso eines der größten Probleme für Bibliotheken sein. Wenn ich mit meinem E-Reader am Strand sitzend, Bücher kaufen und ausleihen kann, warum dann noch in die Bibliothek gehen? Und wenn damit die Entfernung zur Bibliothek sowieso keine Rolle spielt, warum dann überhaupt die lokale Bibliothek nutzen und nicht die (z.B.) Staatsbibliothek mit ihrem größeren Angebot? Wie groß ist letztendlich der Online-Markt für Bibliotheken ohne eigene Spezialbestände?

| ©2008 FH-Potsdam, FB Informationswissenschaften | Stand: 17.06.2009