Literaturverwaltung

Symbol

Aktuelles – Analysen – Austausch zu Software und Services für die persönliche Literatur- und Wissensorganisation

Literaturverwaltungsprogramme im Vergleich – Einblicke hinter die Kulissen

Da der Münchener Vergleich von einschlägigen Literaturverwaltungsprogrammen vergleichsweise populär ist, ist es spannend zu erfahren, wie die jüngste, vor wenigen Wochen in diesem Post vorgestellte Aktualisierung eigentlich zustande gekommen ist. Für einen berichtenden Einblick haben wir an dieser Stelle dankenswerterweise die Initiatorin, Dorothea Lemke von der UB der TU München, gewinnen können. Es stellt sich heraus, dass der Vergleich mitnichten ein reines UB-Projekt war sondern in Kooperation einer Reihe von Beteiligten entstand…

Literaturverwaltungsprogramme im Vergleich – ein Werkstattbericht zur 3. Aktualisierung

von Dorothea Lemke

Ausgangslage

Wie kam es dazu, dass wir im Frühjahr 2012 an der TU München den Vergleich, der ursprünglich an der Uni Augsburg entstanden und im Juli 2009 veröffentlicht worden war, aktualisierten? Um ehrlich zu sein, weiß das keiner mehr genau.

Gewiss ist nur, dass der vorliegenden Vergleich, als ich an die Universitätsbibliothek der TUM wechselte und den Aufgabenbereich Literaturverwaltung übernahm, bei der Einarbeitung sehr hilfreich war. Schnell wurde aber auch deutlich, dass sich die berücksichtigten Programme seit Erstellung des Vergleiches insbesondere funktional deutlich weiterentwickelt hatten. In diesem Zusammenhang muss der Plan entstanden sein, den Vergleich zu aktualisieren.

Ich nahm also Kontakt zu den Autoren des Vergleiches auf, um die Erlaubnis für eine Überarbeitung einzuholen, und machte mich mit meiner Kollegin Petra Frommer ans Werk.

Umsetzung, Feedback & Korrektur der 1. Aktualisierung

Einen so detaillierten Vergleich zu aktualisieren, stellte sich schnell als sehr viel zeitaufwändiger heraus, als wir anfangs gedacht hatten. Ein großes Problem lag darin, dass wir die meisten Programme nicht selber aktiv nutzten. Teilweise hatten wir keine Lizenzen und mussten uns mit Probelizenzen durchschlagen. Außerdem waren wir keine LaTeX-Userinnen.

Nach der Veröffentlichung der ersten Aktualisierung hagelte es Lob, Dank und Kritik. Es war deutlich, dass der Vergleich insbesondere wegen seiner Detailliertheit auf reges Interesse stieß. Wir bekamen sogar eine Anfrage von einem Kollegen, der den Vergleich ins Französische übersetzen wollte, und suchten uns gleich noch einen Kollegen für eine Übersetzung ins Englische.

Es zeigte sich aber, dass uns genau diese Liebe fürs Detail auch zum Verhängnis wurde. Die meisten Kritikpunkte bezogen sich auf Einzelheiten. Es fehlte uns an Detailwissen, das man nur durch praktische Erfahrung mit einem Programm gewinnt. Ein weiterer Kritikpunkt war, dass die Kriterien für die Gesamtbewertung nicht transparent waren.

Wir mussten also noch einmal nacharbeiten. Wir gingen allen kritischen Anmerkungen nach und setzten uns z.T. auch mit den Anbietern der Programme in Verbindung, um letzte schwierige Punkte zu klären. Dabei stießen wir bisweilen auf Unverständnis z.B. darüber, dass wir eine Verlinkung zu Facebook nicht als Social-Software-Funktion akzeptierten.

Nach der 2. Aktualisierung war klar, dass wir die Arbeit am Vergleich in dieser Form nicht weiterführen konnten.

Anpassung des Vorgehens

Die Statistik unseres Medienservers mediaTUM, auf dem wir den Vergleich abgelegt hatten, zeigte mit durchschnittlich 1000 Abrufen pro Monat deutlich, dass Bedarf bestand, den Vergleich auch in Zukunft regelmäßig zu aktualisieren.

Wir brauchten also einen Weg, den Arbeitsaufwand für den einzelnen zu reduzieren, um zukünftige Aktualisierungen auch neben dem regulären Alltagsgeschäft meistern zu können. Zudem machte mir die Qualität ein wenig Sorgen. Wie konnten wir sicherstellen, dass wir bei allen Programmen immer auf dem Laufenden waren? Diese Aufgabe schien für zwei Personen nahezu unmöglich.

Es mussten also Experten her. Experten für jedes Programm. So entstand das Vorhaben, eine Gruppe mit Anwendern unterschiedlicher Literaturverwaltungsprogramme zusammenzustellen.

Literaturverwaltungsvergleich: die III. – Teamarbeit

Ich sah mich also zunächst in meinem direkten Arbeitsumfeld nach Kollegen um, die mit Literaturverwaltung zu tun hatten und bereit und zeitlich in der Lage waren, uns bei der Arbeit am Vergleich zu unterstützen. Dabei suchte ich gezielt nach Anwendern der Programme, die wir selbst nicht nutzten: Mendeley, Zotero, JabRef und RefWorks. Der Übersetzer des englischen Vergleiches, Michael Ladisch (University College Dublin, Library), hatte mir bereits angeboten, sich bei Mendeley zu beteiligen. Auf einer Fortbildung lernte ich Jana Votteler von der Informationsvermittlungsstelle des Max-Planck-Instituts für Biochemie kennen, die u.a. auch Zotero-Kurse gab und den Part für das genuine Firefox-Plugin übernahm. Meine UB TUM-Kollegin Katja Tietze konnte ich als LaTeX-Userin für die Aktualisierung der JabRef-Daten gewinnen. Es fehlte also nur noch jemand für RefWorks. Diesbezüglich wandte ich mich an Sabine-Fuhrmann-Wagner und Patrick Frauenrath von der Uni Augsburg, die dort Schulungen und Support für RefWorks anboten.

Damit war die Gruppe komplett, und es wurden alle bisherigen Programme abgedeckt. Folgende Fragen galt es nun zu klären:

  1. Behalten wir die bisherige Programmauswahl bei oder erweitern wir sie?
  2. Wo finden wir eine Plattform, über die alle Kollegen auch zeitgleich an einem Excel-Dokument arbeiten können, ohne Gefahr zu laufen, Änderungen der Kollegen zu überschreiben?
  3. Bis wann können wir die Version aktualisieren?

1. Neue Programme

Schon seit der ersten Aktualisierung gab es regelmäßig Anfragen, warum Programm „XY“ nicht in unserem Vergleich auftauche. Wir mussten uns nun überlegen, ob, und wenn ja welche, Programme wir zusätzlich in den Vergleich aufnehmen wollten.

Es war nie unser Anspruch, den Markt der Literaturverwaltungsprogramme vollständig abzubilden. Vielmehr sollte der Vergleich dem großen Angebot und der Fluktuation auf dem Markt entgegenwirken und unseren Lesern eine überschaubare Auswahl zuverlässiger Programme vorstellen, die hoffentlich auch in fünf Jahren noch unterstützt und weiterentwickelt werden. Denn wie jeder weiß: Wer die Wahl hat, hat auch die Qual.

Über eine Doodle-Umfrage zu einer Reihe von potentiellen Kandidaten (Bibliographix, Bibsonomy, Bibdesk, Bibus, Citeulike, Colwiz, Docear, I, Librarian, KBibTeX, Litlink, Papers, Qiqqa, ReadCube, Sente und Zettelkasten) haben wir uns letztlich für Docear und Papers als zusätzliche Programme entschieden, die von Jana Votteler (Papers) und Katja Tietze (Docear) übernommen wurden. Mit den Programmen Papers und Docear wollten wir für Mac- und LaTeX-User einen Ausgleich zur bisher starken Windowsorientierung des Vergleiches schaffen. Beide Programme laufen unter Mac OS. Docear wurde unter anderem auch wegen seiner LaTeX-Ausrichtung und seiner Funktionen zur Wissensorganisation gewählt.

2. Gemeinsame Bearbeitung

Nach einigen Tests von institutseigenen bzw. lizensierten sowie frei verfügbaren Programmen, mit denen wir unseren Vergleich gemeinsam bearbeiten könnten, haben wir uns letztendlich für die Bearbeitung des Vergleiches auf Google Docs entschieden. Dies hatte den Vorteil, dass alle Zugang zum Dokument haben, zeitgleich arbeiten können, immer nur eine Version existiert, an der gearbeitet wird, man sieht, in welcher Zelle ein anderer Kollege gerade arbeitet, man gegenseitig kommentieren kann und einen Chat hat, über den man sich mit anderen aktuell eingeloggten Kollegen beraten kann.

3. Veröffentlichungsdatum

Nach Klärung aller anderen Fragen legten wir Anfang Juli als Veröffentlichungszeitpunkt fest. Dies gab jedem eine Bearbeitungszeit von vier Wochen, erlaubte es, angekündigte neue Versionen aufzunehmen und ließ mir ein paar Tage für Endkorrektur und Layout. Die Aufgabe jedes Einzelnen war es dabei, sich um die Aktualisierung seines Programmes im Vergleich zu kümmern und zu schauen, wo Vergleichskriterien ergänzt, vereinfacht oder auch gelöscht werden sollten. Wir aktualisierten, diskutierten und kommentierten in wechselnden Besetzungen miteinander, bis der Vergleich fertig war.

Nach der Veröffentlichung der aktuellen Version haben wir diese über Wikipedia, Blogs, Foren und Mailinglisten beworben. Eine englische und eine französische Übersetzung sind in Arbeit und dieses Mal haben wir sogar Aussicht auf eine Übersetzung ins Thailändische.

Ergebnis

Mein persönliches Fazit dieser gemeinschaftlichen Arbeit ist auf ganzer Linie positiv. Trotz des etwas höheren Koordinations- und Korrekturbedarfs war es zeitlich gut möglich, die Arbeit am Vergleich neben der regulären Tätigkeit unterzubringen. Mit ca. 1-2 Stunden Zeitaufwand pro Programm ist der zeitliche Aufwand überschaubar. Besonders den Austausch mit den Kollegen während der Bearbeitungsphase fand ich sehr hilfreich und meine Sorge um die Qualität des Vergleiches hat sich durch das “Experten-Modell” in Luft aufgelöst.

Geplant ist, den Vergleich einmal pro Jahr zu aktualisieren.

Weitere – auch kritische – Rückmeldungen sind, wie immer, herzlich willkommen.

Einsortiert unter:Services & Support, , , ,

3 Responses

  1. […] Zur 3. Aktualisierung des Literaturverwaltungsprogrammvergleiches habe ich einen Werkstattbericht geschrieben. der gerade im Literaturverwaltungs-Blog erschienen ist: https://literaturverwaltung.wordpress.com/2013/07/23/literaturverwaltungsprogramme-im-vergleich-einbl… […]

  2. […] berücksichtigt wurden, ist aufmerksamen Leserinnen und Lesern dieses Blogs spätestens seit dem Werkstattbericht von Dorothea Lemke bekannt. Faktisch zeitgleich hat aber auch die SLUB Dresden ihr Vergleichsangebot überarbeitet […]

Schreibe einen Kommentar

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s

Blogbeiträge zu:

Archive

Neueste Tweets

RSS Neueste gesammelte Netzressourcen

  • Ein Fehler ist aufgetaucht - der Feed funktioniert zur Zeit nicht. Probiere es später noch einmal.

RSS Neue Literatur

  • Can Mendeley Bookmarks Reflect Readership? A Survey of User Motivations
  • Comparison of the Accuracy of Bibliographical References Generated for Medical Citation Styles by EndNote, Mendeley, RefWorks and Zotero
  • Symbolic interactionism
  • Analysis of Differential Synchronisation's Energy Consumption on Mobile Devices
  • Science literacy meets information literacy Using Zotero as a teaching tool
%d Bloggern gefällt das: