RDA-DE-Trainings-Workshop-2016: Unterschied zwischen den Versionen

Aus Forschungsdaten.org
Zur Navigation springen Zur Suche springen
 
(19 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 11: Zeile 11:


In zwei parallelen Tracks werden die folgenden Themen angeboten. Dabei werden in einem durchgehenden Track ein zentrales Thema, und in drei jeweils halbtägigen Sessions weitere Themen behandelt. Begonnen wird mit einer Übersicht über den Stand der RDA Arbeiten.
In zwei parallelen Tracks werden die folgenden Themen angeboten. Dabei werden in einem durchgehenden Track ein zentrales Thema, und in drei jeweils halbtägigen Sessions weitere Themen behandelt. Begonnen wird mit einer Übersicht über den Stand der RDA Arbeiten.
'''[http://hdl.handle.net/11304/32f72dec-a1bb-49d7-88f8-864226b9f002 Agenda]''':


{| class="wikitable"
{| class="wikitable"
Zeile 17: Zeile 19:
| colspan="3" |Tag 1  
| colspan="3" |Tag 1  
|-
|-
| 11:00 ||  colspan="2" | Plenum  
| 11:00 - 12:00 ||  colspan="2" | Plenum  
|-
| 12:00 - 13:15 || colspan="2" | Mittagspause: Restaurants in der Umgebung
|-
| 13:15 - 15.15 || Daten-Repositorien 1 (Raum A)||  Daten-Workflows 1 (Raum B)
|-
|-
| 12:00 - 13:15 || colspan="2" | Mittagspause (ausserhalb, selbst organisiert)
| 15:15 - 15:45 || colspan="2" | Kaffeepause
|-
|-
| 13:15 - 15.15 || Daten Repositorien 1 || Daten Workflows
| 15:45 - 17:45 ||   Daten-Repositorien 2 (Raum B)||   Daten-Workflows 2 (Raum B)
|-
|-
| 15.15 - 15.45 || colspan="2" | Kaffeepause
| 19:00 ||   colspan="2" | Abendessen im Blockbräu an den St.-Pauli-Landungsbrücken
|-
|-
| 15.45 - 17.45 ||   Daten Repositorien 2 ||  Daten Workflows
| || colspan="2" | (Wir bitten alle Interessierten, sich bis 14:00 in eine der Listen einzutragen)
|-
|-
| colspan="3" | Tag 2
| colspan="3" | Tag 2
|-
|-
| 8.30 - 10.30 ||  Daten Repositorien 3 || Einsatz von PIDs
| 8:30 - 10:30 ||  Daten-Repositorien 3 (Raum A)|| Persistent Identifiers 1 (Raum B)
|-
|-
| 10.30 - 11.00 || colspan="2" | Kaffeepause
| 10:30 - 11:00 || colspan="2" | Kaffeepause
|-
|-
| 11.00 - 13.00 ||  Daten Repositorien 4 || Einsatz von PIDs
| 11:00 - 13:00 ||  Daten-Repositorien 4 (Raum A)|| 11:00 - 12:00 Persistent Identifiers 2 (Raum B)
|-  
|-  
| || || ab 12:00 Metadaten Workflows 1
| || || 12:00 - 13:00 Metadaten-Workflows 1 (Raum B)
|-  
|-  
| 13.00 - 14.00 || colspan="2" | Mittagspause (Catering im Hause)
| 13:00 - 14:00 || colspan="2" | Mittagspause (Catering im Hause)
|-  
|-  
| 14.00 - 16.00 ||  Daten Repositorien 5 || Metadaten Workflows 2
| 14:00 - 16:00 ||  Daten-Repositorien 5 (Raum A)|| Metadaten-Workflows 2 (Raum B)
|-
| 16:00 || colspan="2" | Besichtigung des DKRZ-Großrechners
|}
|}


Zeile 48: Zeile 56:
Nach dem Mittagessen beginnen die eigentlichen Schulungsveranstaltungen.
Nach dem Mittagessen beginnen die eigentlichen Schulungsveranstaltungen.


== Thema 1: Datenrepositorien - 2 Tage==  
'''Agenda:'''
# ''"RDA for Data Practitioners" - Peter Wittenburg, Rainer Stotzka. [http://hdl.handle.net/11304/2b7ffac9-ebc2-44da-853f-476fa07f24c6 Folien].
 
== Thema 1: Daten-Repositorien - 2 Tage==  


Durchgehend an beiden Tagen werden die Rolle und Funktionsweise von Datenrepositorien unter verschiedenen Blickwinkeln von verschiedenen Sprechern behandelt: Aufgaben, Organisation der Daten, Policies und Workflows, Zertifizierung, Interface und Software- Lösungen für Repositorien. In einem konkreten Beispiel wird ein Test-Repositorium aufgebaut.  
Durchgehend an beiden Tagen werden die Rolle und Funktionsweise von Datenrepositorien unter verschiedenen Blickwinkeln von verschiedenen Sprechern behandelt: Aufgaben, Organisation der Daten, Policies und Workflows, Zertifizierung, Interface und Software- Lösungen für Repositorien. In einem konkreten Beispiel wird ein Test-Repositorium aufgebaut.  
Zeile 56: Zeile 67:
'''Teilnehmer:''' Der Kurs richtet sich vornehmlich an Wissenschaftler und Daten-Manager, die mehr Einblick über moderne wissenschaftliche Repositorien haben wollen bzw. die selbst ein lokales Repositorium aufbauen wollen.
'''Teilnehmer:''' Der Kurs richtet sich vornehmlich an Wissenschaftler und Daten-Manager, die mehr Einblick über moderne wissenschaftliche Repositorien haben wollen bzw. die selbst ein lokales Repositorium aufbauen wollen.


== Thema 2: Einsatz von PIDs - halber Tag==  
'''[http://hdl.handle.net/11304/9828c2ce-1d0c-4574-bc1a-145ee8bfeaee Agenda]:'''
# ''"Daten Repositorien" - Peter Wittenburg. [http://hdl.handle.net/11304/3c5efcc6-6f07-43b7-8020-12ca5dc88188 Folien].
# ''"VR als Dienstanbieter" - Peter Wittenburg. [http://hdl.handle.net/11304/d6f89b8d-9ce7-4dd1-a095-66af14f0a696 Folien].
# ''"Organisation von Daten in VR" - Peter Wittenburg. [http://hdl.handle.net/11304/156744e3-3d29-4dc6-b682-56c2062f0b4a Folien].
# ''"Trusted Repositories" - Wolfram Horstmann. [http://hdl.handle.net/11304/7fa6d9c5-85da-4015-9db9-3d2157a32564 Folien].
# ''"Vertrauenswürdige Repositorien Take Away Botschaften". [http://hdl.handle.net/11304/3c090514-8b76-475c-a08d-ead7dad05064 Folien].
# ''"Trustworthy Repositories in Science" - Michael Lautenschlager. [http://hdl.handle.net/11304/0d8dbdec-74e4-4774-954e-1a98e5c0cfa3 Folien].
# ''"Practical Policies Results & Impact for Repositories" - Rainer Stotzka, Reagan Moore. [http://hdl.handle.net/11304/f9147f13-1f5e-467e-8e7b-0acd3f63df57 Folien].
# ''"re3data – Registry of Research Data Repositories" - Heinz Pampel, Paul Vierkant. [http://hdl.handle.net/11304/297024af-575a-446e-93ba-6bef2523cf40 Folien].
# ''"Research Data Repository Interoperability" - Thomas Jejkal. [http://hdl.handle.net/11304/2add6dfa-acae-4b15-bbfd-f2f0a38e8564 Folien]
# ''"WDS Certification" - Michael Diepenbroek. [http://hdl.handle.net/11304/21ac49ef-c3ff-46d7-9c07-c32098c8e1d5 Folien].
 
== Thema 2: Persistent Identifiers - halber Tag==  


An einem halben Tag werden im Detail die folgenden Fragen behandelt: Einsatz von PIDs, Gestaltung von PID-Records, technische Nutzung von PID-Bibliotheken. Einführungen werden durch Hands-On-Beispiele ergänzt.
An einem halben Tag werden im Detail die folgenden Fragen behandelt: Einsatz von PIDs, Gestaltung von PID-Records, technische Nutzung von PID-Bibliotheken. Einführungen werden durch Hands-On-Beispiele ergänzt.
Zeile 63: Zeile 86:


'''Teilnehmer:''' Der Kurs richtet sich vornehmlich an Daten-Wissenschaftler, Software Entwickler und Daten-Manager, die die verschiedenen Möglichkeiten der Verwendung von PIDs in ihrer Arbeit lernen und damit das Daten-Management und den Zugriff auf Daten professioneller gestalten wollen.
'''Teilnehmer:''' Der Kurs richtet sich vornehmlich an Daten-Wissenschaftler, Software Entwickler und Daten-Manager, die die verschiedenen Möglichkeiten der Verwendung von PIDs in ihrer Arbeit lernen und damit das Daten-Management und den Zugriff auf Daten professioneller gestalten wollen.
'''Agenda:'''
# ''"RDA-Deutschland-Training: Persistente Identifikatoren" - Tobias Weigel, Merret Buurman. [http://hdl.handle.net/11304/1f0ceae2-0582-43ac-b3ed-5a3c75139129 Folien].
# ''"PID Training" - Merret Buurman. [http://hdl.handle.net/11304/1237e84b-f86f-4726-942b-89cfa808f7cc Folien], [http://hdl.handle.net/11304/fd3a1901-525e-4ce0-9e81-d635f08ba1e7 Dokumentation].
# ''"EUDAT-B2FIND" - EUDAT. [http://hdl.handle.net/11304/e611af78-7e13-4f4a-a22b-5199a03c4c12 Folien].


== Thema 3: Daten-Workflows - halber Tag ==
== Thema 3: Daten-Workflows - halber Tag ==
Zeile 73: Zeile 101:


'''Agenda:'''
'''Agenda:'''
# ''"Daten-Workflows - eine Einführung" - Richard Grunzke (TU Dresden, Zentrum für Informationsdienste und Hochleistungsrechenen):'' Dieser Überblicksvortrag wird Mechanismen zur automatischen Analyse von Daten beleuchten. Einerseits wird es um Methoden gehen, die direkt durch die Daten anhand von Regeln ausgelöst werden. Andererseits werden Workflow Engines einführt, deren Workflows durch die Nutzer selbst ausgelöst werden und komplexe Analyseautomatismen ermöglichen. Weiterhin wird das Thema Provenance eingeführt, das zum Ziel hat die wissenschaftliche Reproduzierbarkeit zu unterstützten indem Informationen über die Verarbeitung von Daten gespeichert und verwendet werden.
# ''"Daten-Workflows - eine Einführung" - Richard Grunzke (TU Dresden, Zentrum für Informationsdienste und Hochleistungsrechenen):'' Dieser Überblicksvortrag wird Mechanismen zur automatischen Analyse von Daten beleuchten. Einerseits wird es um Methoden gehen, die direkt durch die Daten anhand von Regeln ausgelöst werden. Andererseits werden Workflow Engines einführt, deren Workflows durch die Nutzer selbst ausgelöst werden und komplexe Analyseautomatismen ermöglichen. Weiterhin wird das Thema Provenance eingeführt, das zum Ziel hat die wissenschaftliche Reproduzierbarkeit zu unterstützten indem Informationen über die Verarbeitung von Daten gespeichert und verwendet werden. [http://hdl.handle.net/11304/a0351964-68fd-4f13-80ae-a19323e11834 Folien].
# ''"Data Workflow Provenance" - Ajinkya Prabhune (KIT, Institut für Prozessdatenverarbeitung und Elektronik):'' Scientific workflows are associated with provenance information. Provenance is categorised into two types, (a)Prospective provenance, (b) Retrospective provenance. ProvONE is a W3C standard that enables capturing  both these types of provenance. For handling the provenance information of nanoscopy scientific workflows the ProvONE is integrated with the Nanoscopy Open Reference Data Repository (NORDR) and a dedicated graph database is used for storing and querying the provenance information.
# ''"Data Workflow Provenance" - Ajinkya Prabhune (KIT, Institut für Prozessdatenverarbeitung und Elektronik):'' Scientific workflows are associated with provenance information. Provenance is categorised into two types, (a)Prospective provenance, (b) Retrospective provenance. ProvONE is a W3C standard that enables capturing  both these types of provenance. For handling the provenance information of nanoscopy scientific workflows the ProvONE is integrated with the Nanoscopy Open Reference Data Repository (NORDR) and a dedicated graph database is used for storing and querying the provenance information. [http://hdl.handle.net/11304/ffb09dd7-0f79-406a-bf61-32cdc4761656 Folien].
# ''"Hands-on tutorial on usage the Kepler Scientific Workflow System (including INDIGO-DataCloud extension)" - Marcin Plociennik (Poznan Supercomputing and Networking Center)'' The Kepler scientific workflow system is an open source tool that enables creation, execution and sharing of workflows across a broad range of scientific and engineering disciplines while also facilitating remote and distributed execution of workflows. Kepler builds upon the dataflow-oriented Ptolemy II system 2, which is a software system for modeling and simulation of real-time embedded systems. Kepler workflows model the flow of data between a series of computation steps. Kepler facilitates the execution process, data movement and gathering provenance information.  Kepler is being used by wide range of scientific disciplines including bioinformatics, biology astronomy, astrophysics, nuclear fusion, nanotechnology, chemistry, ecology, hydrology, etc.  This tutorial will introduce the basics required to build own workflows using that tool. The more complex scenarios will also be presented, advertising potential capabilities of the system (e.g. INDIGO-DataCloud extension).
# ''"Hands-on tutorial on usage the Kepler Scientific Workflow System (including INDIGO-DataCloud extension)" - Marcin Plociennik (Poznan Supercomputing and Networking Center)'' The Kepler scientific workflow system is an open source tool that enables creation, execution and sharing of workflows across a broad range of scientific and engineering disciplines while also facilitating remote and distributed execution of workflows. Kepler builds upon the dataflow-oriented Ptolemy II system 2, which is a software system for modeling and simulation of real-time embedded systems. Kepler workflows model the flow of data between a series of computation steps. Kepler facilitates the execution process, data movement and gathering provenance information.  Kepler is being used by wide range of scientific disciplines including bioinformatics, biology astronomy, astrophysics, nuclear fusion, nanotechnology, chemistry, ecology, hydrology, etc.  This tutorial will introduce the basics required to build own workflows using that tool. The more complex scenarios will also be presented, advertising potential capabilities of the system (e.g. INDIGO-DataCloud extension). [http://hdl.handle.net/11304/d217c22e-4616-470f-b056-b5e7327f84d2 Folien].
# ''"Unicore Data Workflows" - Richard Grunzke (TU Dresden, Zentrum für Informationsdienste und Hochleistungsrechenen):'' UNICORE unterstützt das sogenannte Data Oriented Processing. Dieses ermöglicht die Definition von Regeln anhand derer Aktionen auf herein kommende Dateien ausgelöst werden. So lassen sich zum Beispiel automatische Vorverarbeitungs-Pipelines oder neuartige Datenanalysemöglichkeiten realisieren. Dieser Vortrag führt die Methode allgemein ein und geht anhand eines praktischen Beispieles in die Tiefe. [http://b2share.eudat.eu/record/386/files/RDA-DE%20-%20Data%20Workflows%20-%20UNICORE%20Data%20Workflows.pdf Folien].
# ''"Unicore Data Workflows" - Richard Grunzke (TU Dresden, Zentrum für Informationsdienste und Hochleistungsrechenen):'' UNICORE unterstützt das sogenannte Data Oriented Processing. Dieses ermöglicht die Definition von Regeln anhand derer Aktionen auf herein kommende Dateien ausgelöst werden. So lassen sich zum Beispiel automatische Vorverarbeitungs-Pipelines oder neuartige Datenanalysemöglichkeiten realisieren. Dieser Vortrag führt die Methode allgemein ein und geht anhand eines praktischen Beispieles in die Tiefe. [http://hdl.handle.net/11304/53c2855f-b13b-4405-adab-96aba1d3a8d3 Folien].


== Thema 4: Metadaten-Workflows - halber Tag==  
== Thema 4: Metadaten-Workflows - halber Tag==  
Zeile 85: Zeile 113:


'''Teilnehmer:''' Der Kurs richtet sich an Daten-Manager, die Metadaten-Portale realisieren wollen.
'''Teilnehmer:''' Der Kurs richtet sich an Daten-Manager, die Metadaten-Portale realisieren wollen.
'''[http://hdl.handle.net/11304/8c10a1cd-1308-4f11-bc6e-e316bf9626b9 Agenda]:'''
# ''"Metadaten-Workflows" - Heinrich Widmann. [http://hdl.handle.net/11304/3dc50880-0233-4fc9-b991-751b733b1a0b Folien].
# ''"Metadaten-Workflows Übungen". [http://hdl.handle.net/11304/65c2e0a0-0474-49c9-bafc-f649d16da52c Folien].
==Dokumentation ==
Die Folien der Referentinnen und Referenten sowie weitere Materialien finden sich unter: [http://hdl.handle.net/11304/492cbb22-47b1-4ce0-a835-1d34e7cc0bf7 http://hdl.handle.net/11304/492cbb22-47b1-4ce0-a835-1d34e7cc0bf7]

Aktuelle Version vom 9. Juni 2017, 16:48 Uhr

RDA-DE-Schulungsworkshop-2016.png

Organisatorisches

Die Veranstaltung beginnt am 24. Mai um 11.00 und endet am 25. Mai um 16.00, so dass nur eine Übernachtung eingeplant werden muss. Für die Teilnahme wird ein Beitrag von 30 € erhoben.

In zwei parallelen Tracks werden die folgenden Themen angeboten. Dabei werden in einem durchgehenden Track ein zentrales Thema, und in drei jeweils halbtägigen Sessions weitere Themen behandelt. Begonnen wird mit einer Übersicht über den Stand der RDA Arbeiten.

Agenda:

Zeit Session 1 Session 2
Tag 1
11:00 - 12:00 Plenum
12:00 - 13:15 Mittagspause: Restaurants in der Umgebung
13:15 - 15.15 Daten-Repositorien 1 (Raum A) Daten-Workflows 1 (Raum B)
15:15 - 15:45 Kaffeepause
15:45 - 17:45 Daten-Repositorien 2 (Raum B) Daten-Workflows 2 (Raum B)
19:00 Abendessen im Blockbräu an den St.-Pauli-Landungsbrücken
(Wir bitten alle Interessierten, sich bis 14:00 in eine der Listen einzutragen)
Tag 2
8:30 - 10:30 Daten-Repositorien 3 (Raum A) Persistent Identifiers 1 (Raum B)
10:30 - 11:00 Kaffeepause
11:00 - 13:00 Daten-Repositorien 4 (Raum A) 11:00 - 12:00 Persistent Identifiers 2 (Raum B)
12:00 - 13:00 Metadaten-Workflows 1 (Raum B)
13:00 - 14:00 Mittagspause (Catering im Hause)
14:00 - 16:00 Daten-Repositorien 5 (Raum A) Metadaten-Workflows 2 (Raum B)
16:00 Besichtigung des DKRZ-Großrechners

RDA Übersicht

Für alle Teilnehmer wird ein Überblick über den Stand der Diskussionen in RDA nach dem Tokyo-Plenary gegeben inkl. Möglichkeiten für Fragen und Diskussionen.

Nach dem Mittagessen beginnen die eigentlichen Schulungsveranstaltungen.

Agenda:

  1. "RDA for Data Practitioners" - Peter Wittenburg, Rainer Stotzka. Folien.

Thema 1: Daten-Repositorien - 2 Tage

Durchgehend an beiden Tagen werden die Rolle und Funktionsweise von Datenrepositorien unter verschiedenen Blickwinkeln von verschiedenen Sprechern behandelt: Aufgaben, Organisation der Daten, Policies und Workflows, Zertifizierung, Interface und Software- Lösungen für Repositorien. In einem konkreten Beispiel wird ein Test-Repositorium aufgebaut.

Ziel: Ziel des Kurses ist, dass die Teilnehmer Wissen darüber vermittelt bekommen, wie vertrauenswürdige Repositorien aufzubauen sind und wie sie sich in die Infrastruktur- Landschaft einfügen können.

Teilnehmer: Der Kurs richtet sich vornehmlich an Wissenschaftler und Daten-Manager, die mehr Einblick über moderne wissenschaftliche Repositorien haben wollen bzw. die selbst ein lokales Repositorium aufbauen wollen.

Agenda:

  1. "Daten Repositorien" - Peter Wittenburg. Folien.
  2. "VR als Dienstanbieter" - Peter Wittenburg. Folien.
  3. "Organisation von Daten in VR" - Peter Wittenburg. Folien.
  4. "Trusted Repositories" - Wolfram Horstmann. Folien.
  5. "Vertrauenswürdige Repositorien Take Away Botschaften". Folien.
  6. "Trustworthy Repositories in Science" - Michael Lautenschlager. Folien.
  7. "Practical Policies Results & Impact for Repositories" - Rainer Stotzka, Reagan Moore. Folien.
  8. "re3data – Registry of Research Data Repositories" - Heinz Pampel, Paul Vierkant. Folien.
  9. "Research Data Repository Interoperability" - Thomas Jejkal. Folien
  10. "WDS Certification" - Michael Diepenbroek. Folien.

Thema 2: Persistent Identifiers - halber Tag

An einem halben Tag werden im Detail die folgenden Fragen behandelt: Einsatz von PIDs, Gestaltung von PID-Records, technische Nutzung von PID-Bibliotheken. Einführungen werden durch Hands-On-Beispiele ergänzt.

Ziel: Ziel des Kurses ist, dass die Teilnehmer ein Wissen darüber vermittelt bekommen, wie PIDs sinnvoll im wissenschaftlichen Betrieb verwendet werden, in dem große Mengen an Daten erzeugt, genutzt und verwaltet werden.

Teilnehmer: Der Kurs richtet sich vornehmlich an Daten-Wissenschaftler, Software Entwickler und Daten-Manager, die die verschiedenen Möglichkeiten der Verwendung von PIDs in ihrer Arbeit lernen und damit das Daten-Management und den Zugriff auf Daten professioneller gestalten wollen.

Agenda:

  1. "RDA-Deutschland-Training: Persistente Identifikatoren" - Tobias Weigel, Merret Buurman. Folien.
  2. "PID Training" - Merret Buurman. Folien, Dokumentation.
  3. "EUDAT-B2FIND" - EUDAT. Folien.

Thema 3: Daten-Workflows - halber Tag

Gerade bei größeren Datenmengen sind Verfahren und Werkzeuge zur automatisierten Verwaltung und Analyse essentiell. Im Workshop soll dargestellt werden, für welche Zwecke Workflows bei Datenauswertung und Datenmanagement eingesetzt werden können, welche Prinzipien befolgt werden sollten, um z.B. Reproduzierbarkeit zu garantieren, und welche Umgebungen zur Verfügung stehen. Einführungen werden durch Hands-On Beispiele ergänzt.

Ziel: Ziel des Kurses ist, dass die Teilnehmer einen Einblick in das effiziente, automatisierte Umgehen mit Daten bekommen und in ihren eigenen Bereichen umsetzen können.

Teilnehmer: Der Kurs richtet sich an Daten-Wissenschaftler und -Manager, die ihre Arbeit mit Daten automatisieren wollen.

Agenda:

  1. "Daten-Workflows - eine Einführung" - Richard Grunzke (TU Dresden, Zentrum für Informationsdienste und Hochleistungsrechenen): Dieser Überblicksvortrag wird Mechanismen zur automatischen Analyse von Daten beleuchten. Einerseits wird es um Methoden gehen, die direkt durch die Daten anhand von Regeln ausgelöst werden. Andererseits werden Workflow Engines einführt, deren Workflows durch die Nutzer selbst ausgelöst werden und komplexe Analyseautomatismen ermöglichen. Weiterhin wird das Thema Provenance eingeführt, das zum Ziel hat die wissenschaftliche Reproduzierbarkeit zu unterstützten indem Informationen über die Verarbeitung von Daten gespeichert und verwendet werden. Folien.
  2. "Data Workflow Provenance" - Ajinkya Prabhune (KIT, Institut für Prozessdatenverarbeitung und Elektronik): Scientific workflows are associated with provenance information. Provenance is categorised into two types, (a)Prospective provenance, (b) Retrospective provenance. ProvONE is a W3C standard that enables capturing both these types of provenance. For handling the provenance information of nanoscopy scientific workflows the ProvONE is integrated with the Nanoscopy Open Reference Data Repository (NORDR) and a dedicated graph database is used for storing and querying the provenance information. Folien.
  3. "Hands-on tutorial on usage the Kepler Scientific Workflow System (including INDIGO-DataCloud extension)" - Marcin Plociennik (Poznan Supercomputing and Networking Center) The Kepler scientific workflow system is an open source tool that enables creation, execution and sharing of workflows across a broad range of scientific and engineering disciplines while also facilitating remote and distributed execution of workflows. Kepler builds upon the dataflow-oriented Ptolemy II system 2, which is a software system for modeling and simulation of real-time embedded systems. Kepler workflows model the flow of data between a series of computation steps. Kepler facilitates the execution process, data movement and gathering provenance information. Kepler is being used by wide range of scientific disciplines including bioinformatics, biology astronomy, astrophysics, nuclear fusion, nanotechnology, chemistry, ecology, hydrology, etc. This tutorial will introduce the basics required to build own workflows using that tool. The more complex scenarios will also be presented, advertising potential capabilities of the system (e.g. INDIGO-DataCloud extension). Folien.
  4. "Unicore Data Workflows" - Richard Grunzke (TU Dresden, Zentrum für Informationsdienste und Hochleistungsrechenen): UNICORE unterstützt das sogenannte Data Oriented Processing. Dieses ermöglicht die Definition von Regeln anhand derer Aktionen auf herein kommende Dateien ausgelöst werden. So lassen sich zum Beispiel automatische Vorverarbeitungs-Pipelines oder neuartige Datenanalysemöglichkeiten realisieren. Dieser Vortrag führt die Methode allgemein ein und geht anhand eines praktischen Beispieles in die Tiefe. Folien.

Thema 4: Metadaten-Workflows - halber Tag

An einem halben Tag wird dargestellt, welche Standard-Verfahren und Technologien heutzutage in vielen Disziplinen angewendet werden, um Metadaten zu aggregieren, semantisch zu übersetzen, zu indizieren und dann über ein Suchportal mittels Faceted-Search Techniken anzubieten. Der Kurs wird z.T. auch an praktischen Beispielen zeigen, wie man vorgehen kann.

Ziel: Ziel des Kurses ist darzustellen, wie Daten-Manager gezielt und möglichst effizient Metadaten-Portale auf der Basis bekannter Technologien aufsetzen können.

Teilnehmer: Der Kurs richtet sich an Daten-Manager, die Metadaten-Portale realisieren wollen.

Agenda:

  1. "Metadaten-Workflows" - Heinrich Widmann. Folien.
  2. "Metadaten-Workflows Übungen". Folien.

Dokumentation

Die Folien der Referentinnen und Referenten sowie weitere Materialien finden sich unter: http://hdl.handle.net/11304/492cbb22-47b1-4ce0-a835-1d34e7cc0bf7