Zukunftszenarien: Unterschied zwischen den Versionen

Aus Forschungsdaten.org
Zur Navigation springen Zur Suche springen
Keine Bearbeitungszusammenfassung
Keine Bearbeitungszusammenfassung
 
(10 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
= Einleitung =
Im Rahmen des DFG-Projekts [[Radieschen]] wurden Zukunftsszenarien entwickelt, die mögliche extreme Entwicklungen der Forschungsdateninfrastruktur in Deutschland zur Diskussion stellen.<ref name="RAD_Synthese">DFG-Projekt RADIESCHEN - Rahmenbedingungen einer disziplinübergreifenden Forschungsdateninfrastruktur (2013): Synthese, 32 Seiten, doi:[http:/dxdoi.org/10.2312/RADIESCHEN_007 10.2312/RADIESCHEN_007]</ref>
Das Aufkommen neuer Technologien und Entwicklungen stellt auch die Akteure im Bereich der Forschungsdaten-Infrastrukturen vor neue Herausforderungen. Bibliotheken als einer der Akteure ermöglichen Zugang zu digitalen Medien, unterstützen die [[Datenpublikation|Publikation von Forschungsdaten]] und deren [[Langzeitarchivierung]]. Digitale Medien und [[Forschungsdaten]] jedoch bringen neue Aspekte in das Tätigkeitsspektrum der  Bibliotheken. Wie muss man sich die Bibliothek der Zukunft vorstellen? Die Bibliothek als Schnittstelle zu den Rechenzentren? Verschmelzen Bibliothek und Rechenzentrum zu einer neuen Serviceeinheit? Welche Rolle werden die wissenschaftlichen Verlage in Zukunft übernehmen? Momentan liegt die Gewichtung noch bei der traditionellen Form der Publikation in Form von Artikeln für Konferenzen und Journals. Aber wird das auch in Zukunft so bleiben? Neue Publikationsformen kündigen sich bereits an. Auch die Aufgaben der Rechenzentren können sich wandeln. Gestern war noch Bereitstellung von schneller Hardware im Fokus der Aufmerksamkeit, nun sind Daten das Thema, um das sich alles dreht.
Vor diesem Hintergrund stellt sich die Frage nach den Werkzeugen, um in einer vernetzten Welt, die sich ständig ändert, den richtigen Kurs zu finden und zu verfolgen. Ein Werkzeug aus dem Bereich des Innovation Managements ist die Szenario-Technik<ref name="Gausemeier>Gausemeier, J., Stoll, K., Wenzelmann, C. (2007), Szenario-Technik und Wissensmanagement in der strategischen Planung.
In: Gausemeier, J. (Hrsg.)  Vorausschau und Technologieplanung, 1.Aufl. ,S.3-30, HNI, Paderborn, 2007</ref>. Nach Kurt Sontheimer<ref name="Sontheimer">Sontheimer, K. (1970), Voraussage als Ziel und Problem moderner Sozialwissenschaft. In: Klages, H.: Möglichkeiten und Grenzen der Zukunftsforschung. Herder, Wien, Freiburg, 1970</ref> geht es bei der Szenario-Technik weniger um das Vorhersagen der Zukunft, sondern mehr um das Vorausdenken der Zukunft. Szenarien beschreiben mögliche künftige Situationen, beispielsweise die zukünftige Entwicklung des Wissenschaftsstandorts Deutschland, in die das Projekt zu positionieren wäre.
Zukunftsszenarien beruhen auf einem vernetzten System von Einflussfaktoren, wobei für jeden Einflussfaktor mehrere denkbare zukünftige Entwicklungsmöglichkeiten ins Kalkül gezogen werden können. Wesentliches Ziel der Szenario-Technik ist das Erkennen zukünftiger Chancen und Gefahren, um daraus strategische Entscheidungen abzuleiten. Dabei werden vier grundsätzliche Typen von Szenario unterschieden:
* "Möglich" beschreibt Entwicklungen, die möglicherweise eintreten können. Die Vorhersage basiert auf extrapoliertem Wissen, beispielsweise Hochrechnungen.
* "Plausibel" beschreibt Szenarien, die eintreten könnten. Die Vorhersage basiert auf aktuellem Wissen.
* "Wahrscheinlich" stellt eine Situation dar, die wahrscheinlich eintreffen wird. Die Vorhersage basiert auf aktuellen Trends.
* "Bevorzugt" beschreibt eine Situation, die man sich erhofft, basierend auf der fundierten  Bewertungen der aktuellen Situation. 
Die Methode erlaubt die Einbeziehung von Faktoren, die anderweitig schwierig zu erfassen sind, wie beispielsweise neue Erkenntnisse über Zukunft, einen tiefgreifenden Wandel der Werte oder bisher neue Regelungen und Innovationen.
Die folgenden Zukunftsvisionen beschreiben mögliche Entwicklungen der Wissenschaftswelt in Deutschland im Jahre 2020 (oder später). Die Situationen sind überspitzt dargestellt, um Tendenzen zu verdeutlichen und mögliche Entwicklungsschritte ableiten zu können. Die Szenarien beschreiben Extremsituationen. Es ist nicht zu erwarten, dass die beschriebenen Situationen tatsächlich 1:1 so auftreten werden.
= Zukunftsszenarien =
== Szenario 1  -  Neue Leistungsindikatoren in der Wissenschaft ==
 
Lori ist eine erfolgreiche Wissenschaftlerin in den Geowissenschaften. Gerade ist sie von einer Vortragsreise aus Südafrika zurückgekehrt, da erhält sie die Nachricht, dass ihre Softwareveröffentlichung im [[Open Access]] Journal "Earth Science & Computing" angenommen wurde. Daten hat sie schon viele in [[Data Journals]] [[Datenpublikation|veröffentlicht]], dies aber ist ihre erste Softwareveröffentlichung.  Lori ist darüber besonders erfreut, denn diese Veröffentlichung ermöglicht ihr nun endlich, sich auf eine der besonders begehrten Positionen eines Leading Researcher in Australien zu bewerben. Eingangsvoraussetzung für diese heiß begehrten Positionen sind in datenintensiven Disziplinen wie den Geowissenschaften nicht mehr nur der Citation Index, sondern mittlerweile der Dreiklang aus Fachveröffentlichung, [[Datenpublikation|Datenveröffentlichung]]  und Softwareveröffentlichung, denn erst in dieser Kombination werden Veröffentlichungen in den Naturwissenschaften als
vollwertig und als maßgeblicher Beitrag zur Wissenschaft betrachtet.
Ihr Kollege Matthis betritt den Raum. Auch er freut sich, denn er als Co-Autor der Softwareveröffentlichung bekommt wertvolle European Research Credit Points (ERC Points) gutgeschrieben, die er nun einsetzen kann, um begehrte Messzeit  an einem Massenspektrometer zu buchen.  Ein Massenspektrometer steht zwar ganz in der Nähe in den Laboren des GFZ in Potsdam, jedoch bekommt man erst Messzeit genehmigt, nachdem man ein  Mindestmaß an ERC Points erreicht hat. Die eingesetzten ERC Points amortisieren sich schnell, denn durch die geplanten Messungen werden sicher neue Erkenntnisse gewonnen, die Matthis für seine nächste Journal- und Datenveröffentlichung nutzen kann.  So kann er nun weiter mit Lori und ihrem Team forschen und hoffentlich bald seine Doktorarbeit beenden.
Hauptaspekte des Szenarios:
* Einfaches Zählen von Publikationen und Zitaten zur Bewertung akademischer Leistungen wird abgelöst durch eine Kombination aus Fachveröffentlichungen, Datenveröffentlichungen  und Softwareveröffentlichungen.
* Ein Scoring-System etabliert sich und regelt den Zugang zu Ressourcen.
== Szenario 2 - Bibliotheken sind die Zukunft ==
 
Robert sieht sich um in seiner neugestalteten Bibliothek, einer Bibliothek im Verbund der Union of German Libraries for Science and Technology  (UGL-ST). Hohe Aufenthaltsqualitäten, Besprechungsräume, Orte für Diskussionen, Orte für Schulung und Beratung prägen das Bild, und überall Displays mit Anzeigen der aktuellen Datenströme. Drahtloser Gigabit-Netzwerkzugang ist selbstverständlich. Die Datenbestände der Bibliothek sind landesweit mit den Beständen der anderen Universitäts- und Forschungsbibliotheken in der UGL-ST verbunden. Nach der Auflösung der traditionellen Bibliotheksverbünde ermöglichte  die Gründung der  UGL-ST es Deutschland mit der rasanten Entwicklung der Forschungsbibliotheken weltweit mitzuhalten.  Lange vorbei sind die Zeiten, als einzelne institutionelle Bibliotheken noch Kataloge, Bücher und Zeitschriften vorhielten und Daten tief versteckt in den Rechenzentren und Arbeitsplatzrechnern lagen. Bücher und Zeitschriften gibt es noch immer, jedoch nur noch wenige in gedruckter Form. Die Bibliothek ist längst nicht mehr „Papiermuseum“, sondern sie hat sich zu einem Informationsdienstleister entwickelt, der Forscher mit Daten und Informationen versorgt, auch abseits textbasierter Medien.
Unter Roberts Mitarbeitern befinden sich einige hochausgebildete Data-Scientists. Diese sichten die eingehenden Datenströme, führen Qualitätschecks und erste Prüfungen auf eine mögliche Nachnutzung der Daten durch. Der Schwerpunkt der Tätigkeit der UGL-ST-Bibliotheken liegt jedoch nicht nur auf [[Datenarchivierung|Archivierung]] und Katalogisierung von Daten. In der Folge der Zeitschriftenkrise zum Anfang des Jahrhunderts waren die Bibliotheken aktiv geworden und hatten die wissenschaftlichen Verlage, und mit ihnen das traditionelle Subskriptionsmodell für Zeitschriften, mit ihren eigenen Online-Publikationen vom Markt gedrängt.  Ein global agierendes [[Open Access]]-Publikationshaus, die German Science Press unter dem Dach der UGL-ST schuf dafür die Voraussetzung. Die wissenschaftlichen Verlage waren zwar lange führend auf dem Gebiet der traditionellen Veröffentlichung von Zeitschriften und Büchern gewesen, auf dem Gebiet der Software- und [[Datenpublikation|Datenveröffentlichung]] jedoch waren sie mangels Kapazität und Reformwillen chancenlos. Im harten Positionierungskampf waren sie untergegangen und führten nun ein Nischendasein oder waren von den großen wissenschaftlichen Bibliotheken übernommen worden. 
Die neuen UGL-ST-Bibliotheken ähneln daher nur entfernt im Interieur den alten Universitätsbibliotheken, viel mehr sind sie heute Informations- und Kompetenzzentren mit den Kerneinheiten Bibliothek und Rechenzentrum,  ein unverzichtbarer Teil der Forschungsinfrastruktur. Um auf der Höhe der Zeit zu bleiben und im harten internationalen Wettbewerb mithalten zu können, war es nötig geworden, selbständig neue Angebote zu entwickeln.  Die UGL-ST hatte eine eigene Forschungsabteilung eingerichtet in der hochqualifizierte Data Scientists Software entwickelten und neue Techniken zur Datenanalyse und -visualisierung erforschten, um den schnellen Veränderungen durch neue wissenschaftliche Kommunikationsformen und der datengetriebenen Forschung gerecht zu werden.  Gemeinsam und zentral Dienste für die Wissenschaft zu entwickeln, mit großer Verlässlichkeit anzubieten und gleichzeitig vor Ort kompetente Beratung und Dienste nah an den Bedürfnissen der Wissenschaftler zu vermitteln, darin liegt die Stärke der Bibliotheken in der Union of German Libraries for Science and Technology.
Hauptaspekte des Szenarios:
* Bibliotheken entwickeln sich weiter zu innovativen, vernetzten Informations- und Kompetenzzentren.
* Data Scientists, hochqualifizierte Experten im Umgang mit Daten, arbeiten in Bibliotheken in Bereichen wie der Kuratierung, Qualitätssicherung oder Archivierung.
* Bibliotheken übernehmen die Rolle der heutigen Wissenschaftsverlage.
== Szenario 3 - Data Scientists, die Stars einer neuen Generation ==
 
Tom ist Data Scientist mit dem Spezialgebiet [[Forschungsdaten]].  Nach einem naturwissenschaftlichen Studium und dem Abschluss seiner Zusatzausbildung Forschungsdaten konnte er sich aus vielen Angeboten die für ihn interessanteste Position aussuchen. Trotz lukrativer Angebote aus Großbritannien und den USA entschied er sich für eine Position in Deutschland an der German National Library for Science and Technology, kurz GNL-ST.  Diese neugegründete Bibliothek war mit neuester Technologie ausgestattet und bot daher die besten Bedingungen für seinen Karrierestart. Zu den Aufgaben für  Data Scientists an der GNL-ST gehört auch die Entwicklung von Algorithmen zur Klassifizierung und Annotierung von Daten, denn man hatte festgestellt, dass eine unstrukturierte Datenflut nicht sinnvoll auswertbar ist. Auch die [[Qualitätsmanagement|Qualitätssicherung]] , Prüfung der Daten, sowie die Unterstützung bei einer möglichen Nachnutzung gehören zu ihren Aufgaben. 
Der für Tom spannendste Teil aber ist die inhaltliche Sichtung der Daten und die Analyse möglicher Querverbindungen. Human-Computer-Interfaces ermöglichen den Data Scientists der GNL-ST über nicht-textbasierte Eingabegeräte (z.B. Datenhandschuhe, Gestensteuerung) und räumliche Displays mit den Daten im 3D-Raum zu interagieren. Die immersive Datenanalyse ist ein besonders beliebtes Verfahren für die datengetriebene Forschung in hochdimensionalen Datenräumen. So konnte er zum Beispiel bereits auf der Basis der Analyse von Satellitendaten über den Zustand der Ionosphäre zusammen mit der Analyse von ozeanographischen Daten auf eine mögliche Tsunamigefahr im Indischen Ozean hinweisen. Die  Wissenschaftler vor Ort hatten seine Hinweise dankbar aufgenommen und sofort in ihr Warnsystem integriert.  So kann nun schneller und präziser auf ein Warnsignal reagiert und die Bevölkerung, falls nötig, evakuiert werden.
Für die Zukunft wünscht sich Tom die Entwicklung weiterer innovativer Interaktionstechniken, die ihm erlauben, auch sehr große Datenmengen abstrahiert darzustellen und in Windeseile gesuchte Informationseinheiten zu sichten.
Hauptaspekte des Szenarios:
* Das Berufsbild des Data Scientists entwickelt und etabliert sich auch in der akademischen Welt. 
* Data-Scientists arbeiten bei modernen, akademischen Informationsdienstleistern, die sich aus den traditionellen Wissenschafts-Bibliotheken entwickelt haben.
* Ihre Aufgaben umfassen Service für Wissenschaftler wie Ingest und Archivierung, aber auch Forschung im Bereich der Daten-Analyse.
== Szenario 4 – Datenzentren übernehmen eine neue Rolle ==
 
Vorbei die Zeiten, als Rechenzentren in der Wissenschaft lediglich konservative Service Center waren, die auf Zuruf Speicherplatz und Server bereitstellten.  Im Klischee des Rechenzentrums, wie Forscher es sich meist vorstellten, liefen seltsam gekleidete Gestalten in großen Hallen mit rauschendem Lüftungssystem zwischen Rechnern umher. Bewahren galt als das Gebot der Stunde, Neuerungen stand man in den Rechenzentren eher skeptisch gegenüber, denn irgendwo hatte gerade wieder ein Server seinen Geist aufgegeben. Die ambitionierten Rechenzentren engagierten sich im Hochleistungsrechnen. Doch irgendwann kam da ein Sprung und einige der akademischen Rechenzentren entwickelten sich zu Datenzentren.
Heute sind Data Center die natürlichen Ansprechpartner für [[Data Management|Datenmanagement]], Software-Services und auch klassische Veröffentlichungen. Letztere Aufgabe hatten die Data Center von den Bibliotheken und Verlagen übernommen, die mit der wachsenden Datenflut nicht mehr umgehen konnten, als der Ruf nach kombinierten Software- und [[Datenpublikationen]] immer lauter wurde. Und was lag da näher, als eigene Online-Journals zur  Daten- und Softwareveröffentlichung anzubieten? Die Kapazitäten standen ja zur Verfügung. Nun war die ehemalige Bibliothek als Abteilung dem Data Center angegliedert und die wissenschaftlichen Verlage mit ihrem Papier- und Subskriptionsbasierten Angebot nahezu ausgestorben.
Data Scientists bevölkerten nun die Räume, welche mit modernster Interaktionstechnologie und Rechnern mit aktuellster Analyse-Software ausgestattet waren. Die Server und Hochleistungsrechner existierten natürlich noch - an einem zentralen Ort, gut abgesichert gegenüber unbefugtem Zugriff, Stromausfall und sonstigen Katastrophen. Serviceeinrichtungen waren die Data Centers geblieben, jedoch gingen ihre Aufgaben weit über das Niveau von Internet Hosting und Cloud-Angeboten hinaus. Angebote für [[Virtuelle Forschungsumgebungen|Virtuelle Forschungsumgebungen (VFUs)]] und Research Data Engines (RDEs) bildeten nun den Schwerpunkt. Für den Wissenschaftler blieben die Details der Administration und der Softwareinstallation transparent verborgen, er  konnte sich mit Hilfe einer Toolbox seine eigene Arbeitsumgebung für alle seine Projekte kombinieren und darin problemlos mit anderen Forschern seines Teams oder seiner Community zusammen arbeiten. Auch die Publikation von Forschungsergebnissen, Daten und Software waren nun aus dieser Umgebung heraus möglich. 
Hauptaspekte des Szenarios:
* Rechenzentren entwickeln sich weiter zu Datenzentren, die den Forscherinnen und Forschern als primäre Ansprechpartner sowohl für Datenmanagement und Software-Services als auch für Publikationen aller Arten dienen.
* In den Datenzentren arbeiten Data-Scientists an der Bereitstellung der diversen Dienste (VFUs, RDE) für die Communities.
== Szenario 5 - Bewährtes bewahren ==
 
Peter sitzt vor seinem Bildschirm und sortiert die Daten seines Projekts "Benedikt" in seine Datenbank. Es sind einzigartige Datensätze, die eine fast vollständige Analyse der Ikonenmalerei des 14.Jahrhunderts erlauben. Die Daten sind zum Teil nicht reproduzierbar und damit für ihn und seine Kollegen besonders wertvoll. Peter verwahrt seine Daten zunächst auf seiner externen Festplatte. Später will er sie in ein [[Repositorium]] für kunstgeschichtliche Daten transferieren, doch zunächst plant er seine Daten weiter auszuwerten und seine Ergebnisse zu veröffentlichen  - in einem der noch verbliebenen traditionellen Wissenschaftsverlage. Er misstraut dem neuen Angebot der Online-Verlage, nachdem gegen einen seiner Kollegen ein Plagiatsvorwurf laut geworden war. Plagiatsforscher hatten behauptet, der Kollege hätte fremde Datensätze aus einer der Online-Datenbanken verwendet ohne ihre Herkunft eindeutig zu kennzeichnen. Damit ihm das nicht auch passiert,  verwendet er nur eigene Datensätze und verwahrt diese sicher auf seiner Festplatte auf. Wo käme man denn da hin, wenn andere Wissenschaftler auf Basis seiner Arbeiten Ruhm und Ehre erlangten?
Mit dieser Position steht er in Deutschland nicht alleine da. Deutschland hat sich in den letzten Jahren mehr und mehr zu einer Enklave des Bewährten in einer Welt des Umbruchs entwickelt. Hier gibt es sie noch, die traditionellen Wissenschaftsverlage mit ihren Paper Publikationen, ebenso wie die Rechenzentren, die sich direkt um die Belange der Forscher vor Ort kümmern und ihnen ihre Arbeitsumgebungen nach Maß bereitstellen. In anderen europäischen Ländern ist bereits alles virtuell  - Virtual Research Communities ([[VRE|VRCs]]), Research Data Engines, Pläne zum [[Data_Management|Datenmanagement]]. Lauter Dinge, mit denen man als Forscher lediglich seine wertvolle Zeit vertrödelte.
Nachteilig allerdings war, dass nun er und sein Team doch recht abgeschnitten waren von den weltweiten Forschungsaktivitäten in der Kunstgeschichte.  Zusammenarbeit und  Informationsaustausch erfolgt mittlerweile international  vielfach über VRCs. Datenaustausch über die großen Online-Datenbanken war zwar möglich, beruhte aber auf Gegenseitigkeit. Hinzu kam, dass seine sorgfältig gepflegte Publikationsliste weniger und weniger wert zu sein schien. Er hatte schon lange keine interessanten Jobangebote mehr aus dem Ausland erhalten. Dort wurde mehr und mehr Wert auf den Dreiklang an Veröffentlichungen von Daten, Software und Methoden gelegt. Vielleicht sollte er diese Möglichkeiten doch mal näher untersuchen? Die Chancen auf ein Vorankommen als Wissenschaftler allein in Deutschland schienen ihm doch recht begrenzt. Er würde darüber später noch einmal intensiv nachdenken. Jetzt aber war erst einmal die Auswertung seiner Daten wichtiger. Der Fördermittelgeber verlangte nach einem Bericht und die Zeit bis zum Abgabetermin verging schnell.
Hauptaspekte des Szenarios:
* Bestrebungen nach Erneuerung werden aus den verschiedensten Gründen abgewehrt.
* Deutschland fällt im internationalen Vergleich zurück. Die Wissenschaftler sind zunehmend isoliert.
== Fazit ==
Ein optimales Ergebnis kann nur erzielt werden, wenn die verschiedenen Akteure miteinander interagieren und bereit sind, ihre aktuelle Position zu überdenken und zu verändern.
Die Wissenschaftswelt ist dynamisch und verändert sich kontinuierlich. Welchen Weg diese Entwicklung nehmen wird, ist nicht vorhersehbar. Die vorgestellten Szenarien zeigen mögliche Entwicklungen - zum Positiven und zum Negativen.  Es ist nun an den Akteuren selbst, die eigene Position in diesem Kontext zu definieren, diese zu überdenken und Schritte zu überlegen, mit denen eine möglichst positive Zukunftsentwicklung erzielt werden kann.
= Literatur und Verweise =
<references />
[[Category:Data Management]]
[[Category:Data Management]]
Das [http://www.gfz-potsdam.de/startseite, Deutsche GeoForschungsZentrum], das [http://www.dkrz.de , Deutsche Klimarechenzentrum] und das [http://www.mpi.nl ,          Max-Planck-Institut für Psycholinguistik] haben Szenarien entwickelt, die die Bedeutung eines effektiven Forschungsdatenmanagements veranschaulichen.

Aktuelle Version vom 8. Oktober 2015, 14:12 Uhr

Einleitung

Im Rahmen des DFG-Projekts Radieschen wurden Zukunftsszenarien entwickelt, die mögliche extreme Entwicklungen der Forschungsdateninfrastruktur in Deutschland zur Diskussion stellen.[1]

Das Aufkommen neuer Technologien und Entwicklungen stellt auch die Akteure im Bereich der Forschungsdaten-Infrastrukturen vor neue Herausforderungen. Bibliotheken als einer der Akteure ermöglichen Zugang zu digitalen Medien, unterstützen die Publikation von Forschungsdaten und deren Langzeitarchivierung. Digitale Medien und Forschungsdaten jedoch bringen neue Aspekte in das Tätigkeitsspektrum der Bibliotheken. Wie muss man sich die Bibliothek der Zukunft vorstellen? Die Bibliothek als Schnittstelle zu den Rechenzentren? Verschmelzen Bibliothek und Rechenzentrum zu einer neuen Serviceeinheit? Welche Rolle werden die wissenschaftlichen Verlage in Zukunft übernehmen? Momentan liegt die Gewichtung noch bei der traditionellen Form der Publikation in Form von Artikeln für Konferenzen und Journals. Aber wird das auch in Zukunft so bleiben? Neue Publikationsformen kündigen sich bereits an. Auch die Aufgaben der Rechenzentren können sich wandeln. Gestern war noch Bereitstellung von schneller Hardware im Fokus der Aufmerksamkeit, nun sind Daten das Thema, um das sich alles dreht.

Vor diesem Hintergrund stellt sich die Frage nach den Werkzeugen, um in einer vernetzten Welt, die sich ständig ändert, den richtigen Kurs zu finden und zu verfolgen. Ein Werkzeug aus dem Bereich des Innovation Managements ist die Szenario-Technik[2]. Nach Kurt Sontheimer[3] geht es bei der Szenario-Technik weniger um das Vorhersagen der Zukunft, sondern mehr um das Vorausdenken der Zukunft. Szenarien beschreiben mögliche künftige Situationen, beispielsweise die zukünftige Entwicklung des Wissenschaftsstandorts Deutschland, in die das Projekt zu positionieren wäre.

Zukunftsszenarien beruhen auf einem vernetzten System von Einflussfaktoren, wobei für jeden Einflussfaktor mehrere denkbare zukünftige Entwicklungsmöglichkeiten ins Kalkül gezogen werden können. Wesentliches Ziel der Szenario-Technik ist das Erkennen zukünftiger Chancen und Gefahren, um daraus strategische Entscheidungen abzuleiten. Dabei werden vier grundsätzliche Typen von Szenario unterschieden:

  • "Möglich" beschreibt Entwicklungen, die möglicherweise eintreten können. Die Vorhersage basiert auf extrapoliertem Wissen, beispielsweise Hochrechnungen.
  • "Plausibel" beschreibt Szenarien, die eintreten könnten. Die Vorhersage basiert auf aktuellem Wissen.
  • "Wahrscheinlich" stellt eine Situation dar, die wahrscheinlich eintreffen wird. Die Vorhersage basiert auf aktuellen Trends.
  • "Bevorzugt" beschreibt eine Situation, die man sich erhofft, basierend auf der fundierten Bewertungen der aktuellen Situation.

Die Methode erlaubt die Einbeziehung von Faktoren, die anderweitig schwierig zu erfassen sind, wie beispielsweise neue Erkenntnisse über Zukunft, einen tiefgreifenden Wandel der Werte oder bisher neue Regelungen und Innovationen.

Die folgenden Zukunftsvisionen beschreiben mögliche Entwicklungen der Wissenschaftswelt in Deutschland im Jahre 2020 (oder später). Die Situationen sind überspitzt dargestellt, um Tendenzen zu verdeutlichen und mögliche Entwicklungsschritte ableiten zu können. Die Szenarien beschreiben Extremsituationen. Es ist nicht zu erwarten, dass die beschriebenen Situationen tatsächlich 1:1 so auftreten werden.

Zukunftsszenarien

Szenario 1 - Neue Leistungsindikatoren in der Wissenschaft

  Lori ist eine erfolgreiche Wissenschaftlerin in den Geowissenschaften. Gerade ist sie von einer Vortragsreise aus Südafrika zurückgekehrt, da erhält sie die Nachricht, dass ihre Softwareveröffentlichung im Open Access Journal "Earth Science & Computing" angenommen wurde. Daten hat sie schon viele in Data Journals veröffentlicht, dies aber ist ihre erste Softwareveröffentlichung. Lori ist darüber besonders erfreut, denn diese Veröffentlichung ermöglicht ihr nun endlich, sich auf eine der besonders begehrten Positionen eines Leading Researcher in Australien zu bewerben. Eingangsvoraussetzung für diese heiß begehrten Positionen sind in datenintensiven Disziplinen wie den Geowissenschaften nicht mehr nur der Citation Index, sondern mittlerweile der Dreiklang aus Fachveröffentlichung, Datenveröffentlichung und Softwareveröffentlichung, denn erst in dieser Kombination werden Veröffentlichungen in den Naturwissenschaften als vollwertig und als maßgeblicher Beitrag zur Wissenschaft betrachtet.

Ihr Kollege Matthis betritt den Raum. Auch er freut sich, denn er als Co-Autor der Softwareveröffentlichung bekommt wertvolle European Research Credit Points (ERC Points) gutgeschrieben, die er nun einsetzen kann, um begehrte Messzeit an einem Massenspektrometer zu buchen. Ein Massenspektrometer steht zwar ganz in der Nähe in den Laboren des GFZ in Potsdam, jedoch bekommt man erst Messzeit genehmigt, nachdem man ein Mindestmaß an ERC Points erreicht hat. Die eingesetzten ERC Points amortisieren sich schnell, denn durch die geplanten Messungen werden sicher neue Erkenntnisse gewonnen, die Matthis für seine nächste Journal- und Datenveröffentlichung nutzen kann. So kann er nun weiter mit Lori und ihrem Team forschen und hoffentlich bald seine Doktorarbeit beenden.

Hauptaspekte des Szenarios:

  • Einfaches Zählen von Publikationen und Zitaten zur Bewertung akademischer Leistungen wird abgelöst durch eine Kombination aus Fachveröffentlichungen, Datenveröffentlichungen und Softwareveröffentlichungen.
  • Ein Scoring-System etabliert sich und regelt den Zugang zu Ressourcen.


Szenario 2 - Bibliotheken sind die Zukunft

  Robert sieht sich um in seiner neugestalteten Bibliothek, einer Bibliothek im Verbund der Union of German Libraries for Science and Technology (UGL-ST). Hohe Aufenthaltsqualitäten, Besprechungsräume, Orte für Diskussionen, Orte für Schulung und Beratung prägen das Bild, und überall Displays mit Anzeigen der aktuellen Datenströme. Drahtloser Gigabit-Netzwerkzugang ist selbstverständlich. Die Datenbestände der Bibliothek sind landesweit mit den Beständen der anderen Universitäts- und Forschungsbibliotheken in der UGL-ST verbunden. Nach der Auflösung der traditionellen Bibliotheksverbünde ermöglichte die Gründung der UGL-ST es Deutschland mit der rasanten Entwicklung der Forschungsbibliotheken weltweit mitzuhalten. Lange vorbei sind die Zeiten, als einzelne institutionelle Bibliotheken noch Kataloge, Bücher und Zeitschriften vorhielten und Daten tief versteckt in den Rechenzentren und Arbeitsplatzrechnern lagen. Bücher und Zeitschriften gibt es noch immer, jedoch nur noch wenige in gedruckter Form. Die Bibliothek ist längst nicht mehr „Papiermuseum“, sondern sie hat sich zu einem Informationsdienstleister entwickelt, der Forscher mit Daten und Informationen versorgt, auch abseits textbasierter Medien.

Unter Roberts Mitarbeitern befinden sich einige hochausgebildete Data-Scientists. Diese sichten die eingehenden Datenströme, führen Qualitätschecks und erste Prüfungen auf eine mögliche Nachnutzung der Daten durch. Der Schwerpunkt der Tätigkeit der UGL-ST-Bibliotheken liegt jedoch nicht nur auf Archivierung und Katalogisierung von Daten. In der Folge der Zeitschriftenkrise zum Anfang des Jahrhunderts waren die Bibliotheken aktiv geworden und hatten die wissenschaftlichen Verlage, und mit ihnen das traditionelle Subskriptionsmodell für Zeitschriften, mit ihren eigenen Online-Publikationen vom Markt gedrängt. Ein global agierendes Open Access-Publikationshaus, die German Science Press unter dem Dach der UGL-ST schuf dafür die Voraussetzung. Die wissenschaftlichen Verlage waren zwar lange führend auf dem Gebiet der traditionellen Veröffentlichung von Zeitschriften und Büchern gewesen, auf dem Gebiet der Software- und Datenveröffentlichung jedoch waren sie mangels Kapazität und Reformwillen chancenlos. Im harten Positionierungskampf waren sie untergegangen und führten nun ein Nischendasein oder waren von den großen wissenschaftlichen Bibliotheken übernommen worden.

Die neuen UGL-ST-Bibliotheken ähneln daher nur entfernt im Interieur den alten Universitätsbibliotheken, viel mehr sind sie heute Informations- und Kompetenzzentren mit den Kerneinheiten Bibliothek und Rechenzentrum, ein unverzichtbarer Teil der Forschungsinfrastruktur. Um auf der Höhe der Zeit zu bleiben und im harten internationalen Wettbewerb mithalten zu können, war es nötig geworden, selbständig neue Angebote zu entwickeln. Die UGL-ST hatte eine eigene Forschungsabteilung eingerichtet in der hochqualifizierte Data Scientists Software entwickelten und neue Techniken zur Datenanalyse und -visualisierung erforschten, um den schnellen Veränderungen durch neue wissenschaftliche Kommunikationsformen und der datengetriebenen Forschung gerecht zu werden. Gemeinsam und zentral Dienste für die Wissenschaft zu entwickeln, mit großer Verlässlichkeit anzubieten und gleichzeitig vor Ort kompetente Beratung und Dienste nah an den Bedürfnissen der Wissenschaftler zu vermitteln, darin liegt die Stärke der Bibliotheken in der Union of German Libraries for Science and Technology.

Hauptaspekte des Szenarios:

  • Bibliotheken entwickeln sich weiter zu innovativen, vernetzten Informations- und Kompetenzzentren.
  • Data Scientists, hochqualifizierte Experten im Umgang mit Daten, arbeiten in Bibliotheken in Bereichen wie der Kuratierung, Qualitätssicherung oder Archivierung.
  • Bibliotheken übernehmen die Rolle der heutigen Wissenschaftsverlage.


Szenario 3 - Data Scientists, die Stars einer neuen Generation

  Tom ist Data Scientist mit dem Spezialgebiet Forschungsdaten. Nach einem naturwissenschaftlichen Studium und dem Abschluss seiner Zusatzausbildung Forschungsdaten konnte er sich aus vielen Angeboten die für ihn interessanteste Position aussuchen. Trotz lukrativer Angebote aus Großbritannien und den USA entschied er sich für eine Position in Deutschland an der German National Library for Science and Technology, kurz GNL-ST. Diese neugegründete Bibliothek war mit neuester Technologie ausgestattet und bot daher die besten Bedingungen für seinen Karrierestart. Zu den Aufgaben für Data Scientists an der GNL-ST gehört auch die Entwicklung von Algorithmen zur Klassifizierung und Annotierung von Daten, denn man hatte festgestellt, dass eine unstrukturierte Datenflut nicht sinnvoll auswertbar ist. Auch die Qualitätssicherung , Prüfung der Daten, sowie die Unterstützung bei einer möglichen Nachnutzung gehören zu ihren Aufgaben.

Der für Tom spannendste Teil aber ist die inhaltliche Sichtung der Daten und die Analyse möglicher Querverbindungen. Human-Computer-Interfaces ermöglichen den Data Scientists der GNL-ST über nicht-textbasierte Eingabegeräte (z.B. Datenhandschuhe, Gestensteuerung) und räumliche Displays mit den Daten im 3D-Raum zu interagieren. Die immersive Datenanalyse ist ein besonders beliebtes Verfahren für die datengetriebene Forschung in hochdimensionalen Datenräumen. So konnte er zum Beispiel bereits auf der Basis der Analyse von Satellitendaten über den Zustand der Ionosphäre zusammen mit der Analyse von ozeanographischen Daten auf eine mögliche Tsunamigefahr im Indischen Ozean hinweisen. Die Wissenschaftler vor Ort hatten seine Hinweise dankbar aufgenommen und sofort in ihr Warnsystem integriert. So kann nun schneller und präziser auf ein Warnsignal reagiert und die Bevölkerung, falls nötig, evakuiert werden.

Für die Zukunft wünscht sich Tom die Entwicklung weiterer innovativer Interaktionstechniken, die ihm erlauben, auch sehr große Datenmengen abstrahiert darzustellen und in Windeseile gesuchte Informationseinheiten zu sichten.

Hauptaspekte des Szenarios:

  • Das Berufsbild des Data Scientists entwickelt und etabliert sich auch in der akademischen Welt.
  • Data-Scientists arbeiten bei modernen, akademischen Informationsdienstleistern, die sich aus den traditionellen Wissenschafts-Bibliotheken entwickelt haben.
  • Ihre Aufgaben umfassen Service für Wissenschaftler wie Ingest und Archivierung, aber auch Forschung im Bereich der Daten-Analyse.


Szenario 4 – Datenzentren übernehmen eine neue Rolle

  Vorbei die Zeiten, als Rechenzentren in der Wissenschaft lediglich konservative Service Center waren, die auf Zuruf Speicherplatz und Server bereitstellten. Im Klischee des Rechenzentrums, wie Forscher es sich meist vorstellten, liefen seltsam gekleidete Gestalten in großen Hallen mit rauschendem Lüftungssystem zwischen Rechnern umher. Bewahren galt als das Gebot der Stunde, Neuerungen stand man in den Rechenzentren eher skeptisch gegenüber, denn irgendwo hatte gerade wieder ein Server seinen Geist aufgegeben. Die ambitionierten Rechenzentren engagierten sich im Hochleistungsrechnen. Doch irgendwann kam da ein Sprung und einige der akademischen Rechenzentren entwickelten sich zu Datenzentren.

Heute sind Data Center die natürlichen Ansprechpartner für Datenmanagement, Software-Services und auch klassische Veröffentlichungen. Letztere Aufgabe hatten die Data Center von den Bibliotheken und Verlagen übernommen, die mit der wachsenden Datenflut nicht mehr umgehen konnten, als der Ruf nach kombinierten Software- und Datenpublikationen immer lauter wurde. Und was lag da näher, als eigene Online-Journals zur Daten- und Softwareveröffentlichung anzubieten? Die Kapazitäten standen ja zur Verfügung. Nun war die ehemalige Bibliothek als Abteilung dem Data Center angegliedert und die wissenschaftlichen Verlage mit ihrem Papier- und Subskriptionsbasierten Angebot nahezu ausgestorben.

Data Scientists bevölkerten nun die Räume, welche mit modernster Interaktionstechnologie und Rechnern mit aktuellster Analyse-Software ausgestattet waren. Die Server und Hochleistungsrechner existierten natürlich noch - an einem zentralen Ort, gut abgesichert gegenüber unbefugtem Zugriff, Stromausfall und sonstigen Katastrophen. Serviceeinrichtungen waren die Data Centers geblieben, jedoch gingen ihre Aufgaben weit über das Niveau von Internet Hosting und Cloud-Angeboten hinaus. Angebote für Virtuelle Forschungsumgebungen (VFUs) und Research Data Engines (RDEs) bildeten nun den Schwerpunkt. Für den Wissenschaftler blieben die Details der Administration und der Softwareinstallation transparent verborgen, er konnte sich mit Hilfe einer Toolbox seine eigene Arbeitsumgebung für alle seine Projekte kombinieren und darin problemlos mit anderen Forschern seines Teams oder seiner Community zusammen arbeiten. Auch die Publikation von Forschungsergebnissen, Daten und Software waren nun aus dieser Umgebung heraus möglich.

Hauptaspekte des Szenarios:

  • Rechenzentren entwickeln sich weiter zu Datenzentren, die den Forscherinnen und Forschern als primäre Ansprechpartner sowohl für Datenmanagement und Software-Services als auch für Publikationen aller Arten dienen.
  • In den Datenzentren arbeiten Data-Scientists an der Bereitstellung der diversen Dienste (VFUs, RDE) für die Communities.


Szenario 5 - Bewährtes bewahren

  Peter sitzt vor seinem Bildschirm und sortiert die Daten seines Projekts "Benedikt" in seine Datenbank. Es sind einzigartige Datensätze, die eine fast vollständige Analyse der Ikonenmalerei des 14.Jahrhunderts erlauben. Die Daten sind zum Teil nicht reproduzierbar und damit für ihn und seine Kollegen besonders wertvoll. Peter verwahrt seine Daten zunächst auf seiner externen Festplatte. Später will er sie in ein Repositorium für kunstgeschichtliche Daten transferieren, doch zunächst plant er seine Daten weiter auszuwerten und seine Ergebnisse zu veröffentlichen - in einem der noch verbliebenen traditionellen Wissenschaftsverlage. Er misstraut dem neuen Angebot der Online-Verlage, nachdem gegen einen seiner Kollegen ein Plagiatsvorwurf laut geworden war. Plagiatsforscher hatten behauptet, der Kollege hätte fremde Datensätze aus einer der Online-Datenbanken verwendet ohne ihre Herkunft eindeutig zu kennzeichnen. Damit ihm das nicht auch passiert, verwendet er nur eigene Datensätze und verwahrt diese sicher auf seiner Festplatte auf. Wo käme man denn da hin, wenn andere Wissenschaftler auf Basis seiner Arbeiten Ruhm und Ehre erlangten?

Mit dieser Position steht er in Deutschland nicht alleine da. Deutschland hat sich in den letzten Jahren mehr und mehr zu einer Enklave des Bewährten in einer Welt des Umbruchs entwickelt. Hier gibt es sie noch, die traditionellen Wissenschaftsverlage mit ihren Paper Publikationen, ebenso wie die Rechenzentren, die sich direkt um die Belange der Forscher vor Ort kümmern und ihnen ihre Arbeitsumgebungen nach Maß bereitstellen. In anderen europäischen Ländern ist bereits alles virtuell - Virtual Research Communities (VRCs), Research Data Engines, Pläne zum Datenmanagement. Lauter Dinge, mit denen man als Forscher lediglich seine wertvolle Zeit vertrödelte. Nachteilig allerdings war, dass nun er und sein Team doch recht abgeschnitten waren von den weltweiten Forschungsaktivitäten in der Kunstgeschichte. Zusammenarbeit und Informationsaustausch erfolgt mittlerweile international vielfach über VRCs. Datenaustausch über die großen Online-Datenbanken war zwar möglich, beruhte aber auf Gegenseitigkeit. Hinzu kam, dass seine sorgfältig gepflegte Publikationsliste weniger und weniger wert zu sein schien. Er hatte schon lange keine interessanten Jobangebote mehr aus dem Ausland erhalten. Dort wurde mehr und mehr Wert auf den Dreiklang an Veröffentlichungen von Daten, Software und Methoden gelegt. Vielleicht sollte er diese Möglichkeiten doch mal näher untersuchen? Die Chancen auf ein Vorankommen als Wissenschaftler allein in Deutschland schienen ihm doch recht begrenzt. Er würde darüber später noch einmal intensiv nachdenken. Jetzt aber war erst einmal die Auswertung seiner Daten wichtiger. Der Fördermittelgeber verlangte nach einem Bericht und die Zeit bis zum Abgabetermin verging schnell.

Hauptaspekte des Szenarios:

  • Bestrebungen nach Erneuerung werden aus den verschiedensten Gründen abgewehrt.
  • Deutschland fällt im internationalen Vergleich zurück. Die Wissenschaftler sind zunehmend isoliert.


Fazit

Ein optimales Ergebnis kann nur erzielt werden, wenn die verschiedenen Akteure miteinander interagieren und bereit sind, ihre aktuelle Position zu überdenken und zu verändern.

Die Wissenschaftswelt ist dynamisch und verändert sich kontinuierlich. Welchen Weg diese Entwicklung nehmen wird, ist nicht vorhersehbar. Die vorgestellten Szenarien zeigen mögliche Entwicklungen - zum Positiven und zum Negativen. Es ist nun an den Akteuren selbst, die eigene Position in diesem Kontext zu definieren, diese zu überdenken und Schritte zu überlegen, mit denen eine möglichst positive Zukunftsentwicklung erzielt werden kann.

Literatur und Verweise

  1. DFG-Projekt RADIESCHEN - Rahmenbedingungen einer disziplinübergreifenden Forschungsdateninfrastruktur (2013): Synthese, 32 Seiten, doi:[http:/dxdoi.org/10.2312/RADIESCHEN_007 10.2312/RADIESCHEN_007]
  2. Gausemeier, J., Stoll, K., Wenzelmann, C. (2007), Szenario-Technik und Wissensmanagement in der strategischen Planung. In: Gausemeier, J. (Hrsg.)  Vorausschau und Technologieplanung, 1.Aufl. ,S.3-30, HNI, Paderborn, 2007
  3. Sontheimer, K. (1970), Voraussage als Ziel und Problem moderner Sozialwissenschaft. In: Klages, H.: Möglichkeiten und Grenzen der Zukunftsforschung. Herder, Wien, Freiburg, 1970