Informationspraxis mitgestalten?
Hier steht, wie's geht!
DOI: https://doi.org/10.11588/ip.2020.2.73938
Bericht vom 4. VIVO-Workshop 2019
Zusammenfassung
Beim 4. VIVO-Workshop 2019 an der Technischen Informationsbibliothek (TIB) wurde über das Open-Source-Forschungsinformationssystem VIVO und dessen Anwendung in verschiedenen Institutionen berichtet und diskutiert. Dabei wurden einerseits technische Lösungen vorgestellt, andererseits über Konzepte wie Profilhoheit diskutiert. Der Workshop beinhaltete eine interaktive Session, in der verschiedene Themen aus der Community diskutiert und weiterentwickelt wurden.
Schlüsselwörter
VIVO, Forschungsinformationen, Forschungsinformationssystem
Report on the 4th VIVO Workshop 2019
Abstract
At the 4th VIVO Workshop 2019 at the German National Library of Science and Technology (TIB) the open source research information system VIVO and its implementation in various institutions was reported and discussed. On the one hand, technical solutions were presented and on the other hand, concepts such as profile sovereignty were discussed. The workshop included an interactive session in which various topics from the community were discussed and further developed. Presentations were held in German and English.
Keywords
VIVO, research information, research information system
Veröffentlichung: in Informationspraxis Bd. 6, Nr. 2 (2020)
Inhaltsverzeichnis
1 Einführung
Der 4. VIVO-Workshop 2019 in der Technischen Informationsbibliothek (TIB) in Hannover am 28. und 29. November 2019 bot den Teilnehmenden die Gelegenheit, sich über aktuelle Entwicklungen und Projekte rund um das Open-Source-Forschungsinformationssystem VIVO zu informieren und diese zu diskutieren.
Am Vormittag des ersten Tages fanden Fortbildungsveranstaltungen und Praxisworkshops statt. Neben der jährlich stattfinden Einführung „VIVO für Einsteiger" (Tatiana Walther und Christian Hauschke, TIB) und der ebenfalls wiederholt stattgefundenen Veranstaltung zu „Rechtlichen Fragen im FIS-Kontext" (Elke Brehm, TIB) gab es zwei Angebote mit technischem Fokus: Qazi Asim Ijaz Ahmad und Graham Triggs (beide TIB) erläuterten die Installation von VIVO mit Unterstützung verschiedener Sprachversionen. Danach führte Dominik Feldschnieders (Universität Osnabrück) in den „Datenimport mit Karma" ein.
Das verbleibende Programm wurde überwiegend durch Vorträge gefüllt, von denen trotz des grundsätzlich deutschsprachigen Charakters der Veranstaltung einige auch von internationalen Akteuren und auf Englisch gehalten wurden.
2 Die Vorträge
Wie der gesamte Workshop, dienten auch die Vorträge dem Erfahrungsaustausch innerhalb der deutschsprachigen VIVO-Community. Die Vorträge machten deutlich, wie unterschiedlich VIVO genutzt wird, aber auch wie unterschiedlich die Vorgehensweise ist, beim Versuch, VIVO an der eigenen Einrichtung zu etablieren. Dennoch scheinen alle Einrichtungen vor ähnlichen Herausforderungen zu stehen.
Das Vortragsprogramm startete mit Christian Hauschke (TIB), der in seinem Vortrag „Trends und Entwicklungen rund um VIVO" aufzeigte. Neben Neuerungen aus dem aktuellen VIVO-Release 1.11 stellte er eine subjektive Auswahl von Themen und Trends vor, vorwiegend von der internationalen VIVO Conference im September 2019 in Podgorica (Montenegro) und dem euroCRIS membership meeting im November 2019 in Münster. Erwähnt wurden insbesondere Forschungsinformationen auf Basis von persistenten Identifiern (PID). Neben den schon etablierten PIDs für beispielsweise Publikationen (DOI, Digital Object Identifier) und Organisationen (ROR, Research Organization Registry) gibt es aktuell Bestrebungen, verschiedene Entitätstypen mit PIDs (Konferenzen etc.) abzudecken.
Im Folgenden berichteten Lisa Römer und Matthias Lühr (Hochschule Mittweida) von den Herausforderungen, VIVO mit schon vorhandenen Strukturen und Daten zu verbinden, aber auch denen, das Vorhaben innerhalb der eigenen Einrichtung durchzusetzen. Bei ihnen, wie auch bei anderen Teilnehmenden des Workshops, spielen der Datenschutz und die IT-Sicherheit eine wesentliche Rolle bei der Durchführung des Projektes.
Sonja Schulzes (Universität Osnabrück) Vortrag „VIVO zur Umsetzung der Niedersächsischen Leitlinien zur Transparenz in der Forschung" führte zunächst in die titelgebenden Leitlinien (LHK & MWK 2015) ein. Dann erläuterte sie, wie die sich daraus ergebenden Anforderungen an niedersächsische Hochschulen in die Entwicklung eines VIVO-Portals geflossen sind.
Stefan Wolff (Sächsische Landesbibliothek, Staats- und Universitätsbibliothek – SLUB Dresden) stellte im Rahmen seines Vortrags „Connecting knowledge: Exploration interdisziplinärer Forschungsnetzwerke mit VIVO" den sogenannten Forschungskompass1 vor. Dieser baut auf VIVO auf und wird im Rahmen des DFG-Projekts Fachinformationsdienst Mobilitäts- und Verkehrsforschung (FID move) entwickelt. Das Ziel des Forschungskompasses ist es die Vernetzung der Verkehrs- und Mobilitätsforschung zu erhöhen. Zu diesem Zweck wurde ein Forschungsnetzwerk bestehend aus AutorInnen, Forschungsthemen und Wirkungsorten (z. B. Universitätsstandorten) entwickelt. Der Forschungskompass bietet unter anderem die Möglichkeit, potentielle Kooperationspartner zu finden und eine Recherche verknüpfter Themen durchzuführen.
Im letzten Vortrag dieser Session berichtete Petra Schön (Robert Koch-Institut, RKI) über „Die Einführung von VIVO am Robert Koch-Institut". Neben der Erläuterung, warum die Wahl auf VIVO gefallen ist, standen die Herausforderungen, die mit der Etablierung des Systems im RKI verbunden waren im Mittelpunkt des Vortrags. Insbesondere hob sie die Relevanz des Themas Datenschutz hervor. Sie wies auf die Wichtigkeit hin, die Datenschutzbeauftragten frühzeitig, am besten schon bei der Planung des Projektes, mit einzubeziehen. Einen weiteren Schwerpunkt stellte die Beschreibung der Zusammenarbeit mit der TIB im Rahmen der praktischen Umsetzung des Projektes dar.
Nach einer kurzen interaktiven Session, in der Tatiana Walther (TIB) Möglichkeiten der Zusammenarbeit bezüglich der deutschen Übersetzung der VIVO-Ontologie und -Software erläuterte und gemeinsam über verschiedene Änderungen an konkreten Übersetzungen abgestimmt wurde, ging es in die nächste Session.
Den Anfang dieser Session machte Graham Triggs (TIB) mit seinem Vortrag „Using the Vitro Query Tool". Das Vitro Query Tool (VTQ) baut auf bestehenden technischen Mechanismen in Vitro/VIVO auf. Dazu wurde eine graphische Oberfläche für Data Distributors geschaffen, sowie eine Umgebung, in der diese Distributors abgefragt und die Ergebnisse entweder in Word- oder Excel-Templates ausgegeben werden können. Dies ermöglicht es unter anderem, wiederkehrende Berichtsanforderungen auf Knopfdruck zu erledigen. Auch verschiedene Workflows (z. B. Sammlung aller nicht validierten Publikationen als Liste) sind somit einfacher geworden.
Zum Abschluss des ersten Tages beschrieb Anna Guillaumet (SIGMA AIE) in einem per Videoübertragung gehaltenen Vortrag zu „CERIF and VIVO", wie es zu der Entscheidung von SIGMA, einer Non-Profit-Organisation staatlicher spanischer Universitäten, für VIVO kam. VIVO erfüllt nahezu 80 % aller Anforderungen des spanischen Forschungsmodells und wurde auch aufgrund der lebhaften und aktiven Community ausgewählt. In ihrem Vortrag ging sie zudem auf das Projekt CERIF2VIVO ein, in dem ein Interface für VIVO geschaffen werden soll, mit dem CERIF (Common European Research Information Format) als Import-Datenstandard genutzt werden kann. Es handelt sich dabei um ein Gemeinschaftsprojekt zwischen SIGMA und euroCRIS mit der Unterstützung der VIVO-Community.
Der zweite Tag des Workshops begann mit einem Bericht („Offene szientometrische Indikatoren im Forschungsprofil“) von Grischa Fraumann (TIB) über aktuelle Ergebnisse aus dem BMBF-Projekt ROSI („Referenzimplementierung für Offene Szientometrische Indikatoren”). Im Rahmen des Projektes wurden Einzelinterviews mit Forschenden zu deren Anforderungen und Wahrnehmungen in Bezug auf Forschungsevaluierung, Indikatorik und Forschungsprofile durchgeführt. Das Ziel ist u. a. Rückmeldungen zu einem Prototyp einzuholen, der szientometrische Indikatoren visualisiert. In diesem Vortrag wurden erste Ergebnisse der Interviews sowie der aktuelle Stand des Prototyps vorgestellt.
Daran anknüpfend präsentierte Franziska Altemeier (Universität Hildesheim) in ihrem Vortrag „Konferenzmetadaten als Basis für szientometrische Indikatoren" die Ergebnisse eines Vergleichs verschiedener Konferenzmetadatenschemata unterschiedlicher Anbieter. Sie stellte im Zuge dessen auch einen Kriterienkatalog zur Bewertung von Konferenzmetadatenschemata vor. Der Vergleich wurde vor dem Hintergrund der Relevanz von Konferenzen für Wissenschaft und Gesellschaft vorgenommen.
Qazi Asim Ijaz Ahmad (TIB) präsentierte die von ihm entwickelte Lösung für „Dashboards for VIVO with Kibana". Hierzu werden Daten aus VIVO in einen Elasticsearch-Suchindex geschrieben. Mit Hilfe des Analyse-Plugins Kibana können dann Dashboards für verschiedene Zwecke erstellt werden, beispielsweise zum Zwecke der Forschungsevaluierung. Es werden ausschließlich Open-Source-Komponenten verwendet. Abschließend führte er am Beispiel eines Prototypen (Ahmad 2019) vor, wie diese Dashboards funktionieren und wie man mit wenigen Klicks eigene Visualisierungen erstellen kann.
„Neue berufliche Rollen in der IT-gestützten Forschungsberichterstattung" stellte Stefan Schelske (Deutsches Zentrum für Hochschul- und Wissenschaftsforschung – DZHW) im letzten Vortrag vor. Die große Nachfrage nach Forschungsinformationen geht mit einem wachsenden Bedarf an entsprechend qualifiziertem Personal einher. Im Vortrag stellte Schelske verschiedene Kompetenzkonzepte vor, wobei er u. a. auf den Vortrag „Kompetenzen für das FIS- und Daten-Management" von Ina Blümel (2018) und die Posterpräsentation „FIS-Curriculum – Bedarfe zur Ausbildung künftiger Forschungsinformations-Manager" von Ina Blümel u. a. (2018) als mögliche Grundlagen verwies. Das vorgestellte Kompetenzmodell basiert auf einem Rollenkonzept, in dem verschiedene Kompetenzprofile für das FIS- und Datenmanagement modelliert werden. In der abschließenden Diskussion wurden die vorgestellten Rollen eines / einer FIS-ManagerIn behandelt und die notwendigen Kompetenzen aus der Sicht der Teilnehmenden erörtert, z. B. in Bezug auf Anforderungen des Wissenschaftsmanagements im deutschen Hochschulsystem.
3 Die interaktive Session
Für die interaktive Session wurden vor und während des Workshops verschiedene Themen gesammelt, die dann in Gruppen diskutiert wurden. Die dokumentierten Ergebnisse wurden anschließend im Plenum vorgestellt. Die einzelnen Gruppen widmeten sich den Themen „VIVO-Attraktivität für Forschende und Geschäftsführung“, „VIVO mit anderen Systemen verbinden / Datenaustausch”, „Modulare Ontologien für Forschungsinformationen“, „Vitro Query Tool” (VQT) und „VIVO und der Kerndatensatz Forschung".
3.1 VIVO-Attraktivität für Forschende und Geschäftsführung
Abb. 1: Notizen aus der Session VIVO-Attraktivität für Forschende und Geschäftsführung
In dieser Session wurde darüber diskutiert, aus welchen Gründen VIVO für die beiden Stakeholdergruppen Forschende und Geschäftsführung interessant ist. Für die Gruppe der Forschenden wurden verschiedene User Stories und Anwendungsszenarien diskutiert, die in Tabelle 1 dargestellt sind. Zusätzlich zu den dort genannten wurde eine Exit-Strategie für beide Parteien diskutiert. Für die Geschäftsführung beinhaltet das den Wechsel zu anderen Systemen im Rahmen der Institution, für die Forschenden bedeutet das die Hoheit über die eigenen Daten und deren Darstellung (Profilhoheit), inklusive der Migration der Daten in andere Systeme wie z. B. ORCID.
Tab. 1: Anwendungsszenarien für Forschende und Geschäftsführung
Forschende | Geschäftsführung |
Informations- und Übersichtsquelle (Wer macht was?) | Datenabfragemöglichkeit, visualisierte Reporting-Tools |
Zentrale Eingabe vs. verschiedene Tools | Anpassbarkeit und Flexibilität der Gestaltung |
Möglichkeit der Mitgestaltung des Systems (z. B. als Testperson, aber auch später bei der Implementierung) |
Gezielte Erweiterungen möglich (Zurverfügungstellung dieser an die Community möglich) |
Möglichkeit der erweiterten internen Selbstdarstellung | Stetige Weiterentwicklung durch die Community |
Keine Lizenzgebühren (Open Source) | |
Möglichkeit der Vernetzung | |
Datenhoheit (eigener Server, keine Cloud) | |
Datenmitnahme bei Arbeitgeberwechsel | Datenmitnahme bei FIS-Wechsel |
3.2 VIVO mit anderen Systemen verbinden / Datenaustausch
Die Gruppe hat sich aufgrund ihrer heterogen Zusammensetzung zum einen aus technischer, zum anderen aus informationswissenschaftlicher Sicht dem Thema genähert. So wurde zunächst untersucht, welche vorhandenen Schnittstellen den Datenaustausch ermöglichen und welche Verbindungen zu anderen Systemen wünschenswert wären, aber auch welche Herausforderungen damit verbunden sein können. Über mögliche Lösungen wurde hier ebenfalls diskutiert.
Im nächsten Schritt hat die Gruppe zusammengetragen, welche ihr bekannten Möglichkeiten es bereits gibt, Daten aus VIVO in andere Systeme einzubinden:
- VIVO-Inhalte in TYPO3-Seiten
- Andere FIS-Systeme wie Pure2, Converis und Symplectic Elements
- DSpace und DSpace-CRIS
Außerdem wurden Möglichkeiten gesammelt, Daten in VIVO einzubinden, z. B. via ORCID, PubMed ID oder DOI.
Parallel diskutierte die Gruppe zudem die Probleme, die eine Verbindung verschiedener Systeme mit sich bringt. Einen Schwerpunkt stellte in diesem Zusammenhang die Qualitätssicherung dar.
Die folgenden Anforderungen und mögliche Lösungsansätze wurden erarbeitet:
- Datenstandards
- Mapping auf den Kerndatensatz Forschung (KDSF)
- Datenqualität
- Validierungsworkflows bei externer Dateneingabe
- Zweistufige Dateneingabe mit Kontrolle durch BibliothekarInnen bzw. FIS- ManagerInnen (evtl. weitere Kapazitäten erforderlich)
- Einstellbare Sichtbarkeit der Daten (im Bearbeitungsmodus nicht anzeigen)
- Anzeige des Validierungsstatus der Daten
- Qualitätsstatus anzeigen? (automatisch eingegeben – AutorIn hat Publikation überprüft BibliothekarIn bzw. FIS-ManagerIn hat Publikation überprüft)
- Wer definiert Qualität?
- Echtzeit Updates bei Datenänderungen
- Plugin-Infrastruktur (erste Entwicklungen: Modularisierungen)
3.3 Modulare Ontologien für Forschungsinformationen
Eine weitere Gruppe beschäftigte sich damit, wie Forschungsinformationen mittels modularer Ontologien beschrieben werden können. Kern der Diskussion war, welche Module essentiell sind. Da in dieser Session Teilnehmende mit Erfahrungen in verschiedenen Forschungsinformationssystemen vertreten waren, konnten unterschiedliche Vorgehensweisen bei der Modellierung von Ontologien diskutiert werden.
Ausgangssituation war die Idee, die VIVO-Ontologie modular zu gestalten (vgl. Conlon u. a. 2019). Die im Workshop entstandenen Ideen basieren auf einem Kern mit Personen und Organisationen, der durch Module von verschiedenen Entitätstypen wie Projekten, Events, Preisen, Impact oder auch für umfassendere Datenmodelle wie z. B. dem Kerndatensatz Forschung (KDSF) ergänzt werden kann.
Abb. 2: Notizen aus der Session Modulare Ontologien für Forschungsinformationen
3.4 Vitro Query Tool (VQT)
In dieser Gruppe wurde die Verwendung des beim vorherigen VIVO-Workshop 2018 (Hauschke u. a. 2018) angekündigten VQT erörtert – die Konfiguration wiederverwendbarer Abfragen und die Vorlagen, die zur Erstellung von Berichten verwendet werden. Es gab einige Diskussionen über die ersten Anwendungsfälle, die die TIB mit dem VQT zu implementieren beabsichtigte, und ein Brainstorming, wie es in anderen Szenarien/Institutionen verwendet werden könnte.
3.5 VIVO und der Kerndatensatz Forschung
In der KDSF-Session wurde die aktuelle Version des KDSF-VIVO-Mappings vorgestellt. Das besondere Augenmerk lag dabei auf der Abbildung der Personalkategorien. Darüber hinaus wurde über verschiedene Anwendungsmöglichkeiten des Kerndatensatzes Forschung (KDSF) und speziellen Herausforderungen bei der Verwendung von VIVO als Quellsystem für die KDSF-konforme Berichterstattung diskutiert. Insbesondere im Bereich Personen gibt es viele personenbezogene, sensible Informationen wie z. B. zu Besoldungsgruppen von Mitarbeitenden, die in einem Forschungsinformationssystem in der Regel nicht vorgehalten werden. Als eine Option wurde die Einbindung von VIVO für die Unterstützung des Berichtswesens für einzelne aus Sicht des Datenschutzes unkritische Bereiche und Informationen wie Publikationen und Projekte betrachtet.
4 Feedback
Die Evaluation des Workshops mit 33 Teilnehmenden war insgesamt sehr positiv. Alle Teilnehmenden, die den Online-Feedbackbogen ausgefüllt haben, waren mit den Räumlichkeiten und der inhaltlichen Gestaltung sehr zufrieden. Ebenfalls haben alle bestätigt, neue Kontakte geknüpft sowie neue Eindrücke gewonnen zu haben. Alle würden einen weiteren VIVO-Workshop besuchen. Aufgrund der aktuellen Lage wird der 5. VIVO-Workshop erst voraussichtlich 2021 stattfinden.
Eine weitere Frage im Feedbackformular zielte darauf ab, „Prioritäten hinsichtlich der Weiterentwicklung der VIVO-Software" zu erfragen. Die hier dargestellten Ergebnisse sind geclustert, thematisch ähnliche Punkte wurden zusammengefasst und umformuliert. Die Teilnehmenden haben die folgenden Wünsche ausgewählt bzw. formuliert:
Eine bessere Dateneingabe: Der Import und Export von und nach ORCID war die am höchsten priorisierte Funktion (10 Teilnehmende).
Bessere Funktionen für Self-Editors: Es wurde explizit auf den im Workshop geprägten Begriff „Profilhoheit" Bezug genommen (5 Teilnehmende).
Eine einfachere Installation der Software (4 Teilnehmende).
Weitere Arbeiten zur Berichterstattung (zum Beispiel Vitro Query Tool und Kibana Dashboards) (4 Teilnehmende).
Bessere Features für die Internationalisierung, zum Beispiel die mehrsprachige Eingabe von Inhalten (3 Teilnehmende).
Verbesserungen der Ontologie, z. B. verbesserte KDSF-Ausrichtung (3 Teilnehmende).
Weitere Feature-Wünsche beinhalten einen verbesserten und erweiterten Ontologie-Editor, verbesserte Profile für Konzepte sowie eine Plugin-Architektur.
Quellen
Ahmad, Qazi Asim Ijaz (2020). Dashboards for VIVO with Kibana. 4. VIVO-Workshop 2019. Figshare. https://doi.org/10.6084/m9.figshare.11898246
Ahmad, Qazi Asim Ijaz (2019). Mit UMBIKO in Richtung Open Research Analytics. TIB Blog. https://blogs.tib.eu/wp/tib/2019/09/25/mit-umbiko-in-richtung-open-research-analytics/
Altemeier, Franziska (2019). Konferenzmetadaten als Basis für szientometrische Indikatoren. 4. VIVO-Workshop 2019. Zenodo. https://doi.org/10.5281/zenodo.3563541
Blümel, Ina (2018). Kompetenzen für das FIS- und Daten-Management. 3. VIVO-Workshop 2018. Zenodo. https://doi.org/10.5281/zenodo.1442619
Blümel, Ina; Walther, Tatiana; Zellmann, Cedrik; Hauschke, Christian; Wartena, Christian; Hahn; Lydia (2018). FIS-Curriculum – Bedarfe zur Ausbildung künftiger Forschungsinformations-Manager. 107. Deutscher Bibliothekartag in Berlin 2018. https://opus4.kobv.de/opus4-bib-info/frontdoor/index/index/docId/3296
Conlon, Michael; Ilik, Violeta; Lowe, Brian; Hauschke, Christian; White, Marijane; Javed, Muhammad; Braun; Naomi (2019). VIVO Ontology Version 2. VIVO Conference 2019. Figshare. https://figshare.com/articles/VIVO_Ontology_Version_2/9771701
Feldschnieders, Dominik (2019). Datenimport mit Karma - TIB Vivo Workshop 2019. 4. VIVO-Workshop 2019. Zenodo. http://doi.org/10.5281/zenodo.3567934
LHK; MWK (2015). Leitlinien zur Transparenz in der Forschung. Gemeinsame Position der Landeshochschulkonferenz Niedersachsen (LHK) und des Niedersächsischen Ministeriums für Wissenschaft und Kultur (MWK).. https://www.mwk.niedersachsen.de/download/94171/Leitlinien_zur_Transparenz_in_der_Forschung.pdf
Guillaumet, Anna (2019). CERIF and VIVO. 4. VIVO-Workshop 2019. Zenodo. http://doi.org/10.5281/zenodo.3572068
Hauschke, Christian; Walther, Tatiana; Fraumann, Grischa; Blümel, Ina; Feldschnieders, Dominik; Triggs, Graham; Ahmad, Qazi Asim Ijaz (2019). Bericht vom 3. VIVO-Workshop 2018. In Informationspraxis 5 (1). DOI: https://doi.org/10.11588/ip.2019.1.61729.
Hauschke, Christian (2019). Trends und Entwicklungen rund um VIVO. 4. VIVO-Workshop 2019. Zenodo. https://doi.org/10.5281/zenodo.3564457
Lilienthal, Svantje; Fraumann, Grischa (2019). Offene szientometrische Indikatoren im Forschungsprofil. 4. VIVO-Workshop 2019. Zenodo. http://doi.org/10.5281/zenodo.3560103
Römer, Lisa; Lühr, Matthias (2019). VIVO@HSMW - das neue FIS der Hochschule Mittweida. 4. VIVO-Workshop 2019. Zenodo. https://doi.org/10.5281/zenodo.3559555
Schelske, Stefan (2019). Neue berufliche Rollen in der IT-gestützten Forschungsberichterstattung. 4. VIVO-Workshop 2019. Zenodo. https://doi.org/10.5281/zenodo.3562040
Schön, Petra (2019). Die Einführung von VIVO am Robert Koch-Institut. 4. VIVO-Workshop 2019. Zenodo. https://doi.org/10.5281/zenodo.3572205
Wolff, Stefan (2019). Connecting knowledge: Exploration interdisziplinärer Forschungsnetzwerke mit VIVO. 4. VIVO-Workshop 2019. Zenodo. http://doi.org/10.5281/zenodo.3557425
Prototyp vorhanden: https://github.com/VIVO-DE/Pure-VIVO-Connection)↩︎
AutorInnen
-
Franziska Altemeier, altemeier@uni-hildesheim.deUniversität Hildesheim, Universitätspl. 1, D-31141 Hildesheim
-
Grischa Fraumann, grischa.fraumann@tib.euTechnische Informationsbibliothek (TIB), Welfengarten 1B, D-30167 Hannover
-
Christian Hauschke, christian.hauschke@tib.euTechnische Informationsbibliothek (TIB), Welfengarten 1B, D-30167 Hannover
-
Petra Schön, schoenp@rki.deRobert Koch-Institut, Nordufer 20, D-13353 Berlin
-
Daniel Schunk, daniel.schunk@mwk.niedersachsen.deNiedersächsisches Ministerium für Wissenschaft und Kultur, Leibnizufer 9, D-30169 Hannover
-
Graham Triggs, graham.triggs@tib.euTechnische Informationsbibliothek (TIB), Welfengarten 1B, D-30167 Hannover
-
Tatiana Walther, tatiana.walther@tib.euTechnische Informationsbibliothek (TIB), Welfengarten 1B, D-30167 Hannover