Open Discourses – Insights https://insights.tuhh.de/de/ Einblicke in das digitale Experimentierfeld für Lehre und Forschung an der Technischen Universität Hamburg Thu, 06 May 2021 20:28:14 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.17 https://insights.tuhh.de/wp-content/uploads/2018/06/cropped-Flavcon_I_Kusiv-32x32.png Open Discourses – Insights https://insights.tuhh.de/de/ 32 32 Teilen von erhobenen Forschungsdaten über TORE https://insights.tuhh.de/de/blog/projekte/2020/05/06/zugaenglichmachung-von-erhobenen-forschungsdaten-ueber-tore/ Wed, 06 May 2020 16:57:51 +0000 https://insights.tuhh.de/?p=20952 In unseren abgeschlossenen BMBF geförderten Projekten HEIDS und JOIN haben wir uns vorgenommen, unsere erhobenen Daten auch anderen Forscher_innen zugänglich zu machen. Daten meinen in unserem Fall über die Webpräsenzen öffentlich zugängliche Dokumente im Kontext von Digitalisierung im Hochschulwesen mit dem Fokus auf Studium und Lehre. Das bedeutet, die Inhalte wurden von Hochschulen verfasst und auf ihren Webseiten präsentiert, aber nicht offiziell veröffentlicht. Da Links eine kurze Halbwertzeit haben, waren wir auf der Suche nach einer Möglichkeit, die Dokumente rechtskonform zu teilen.

Hier möchten wir unsere bisherigen Erfahrungen teilen und uns damit auch bei der TUHH-Bibliothek für die souveräne und geduldige Beratung bedanken. Gerne könnt Ihr/können Sie im Kommentarfeld Eure/Ihre Erfahrungen ergänzen.

In den Projekten HEIDS und JOIN haben wir zwei Sorten von öffentlich zugänglichen Dokumenten erhoben:

  1. Dokumente von Ministerien
  2. Dokumente von Hochschulen

Die Dokumente unter Punkt 1 fallen nach unserer Recherche unter das Informationsfreiheitsgesetz bzw. das Informationsweiterverwendungsgesetz und § 5 UrhG. Daher haben wir unser gitlab-Projekt mit den Landesstrategiepapieren für die Öffentlichkeit freigeschaltet.

Die Dokumente unter Punkt 2 könnten unter das Urheberrecht fallen, wenn eine bestimmte Schöpfungshöhe erreicht ist. Diese bemisst sich in Individualität und Originalität. Ein Beispiel wäre die Digitalisierungsstrategie der TUHH. Um rechtliche Probleme zu vermeiden, gehen wir davon aus, dass diese Kriterien per se gegeben sind.

Was kann man tun?

  • Alle Urheber_innen fragen und die Rechte einholen – wie man es auch im Falle von selbst erhobenen Daten wie beispielsweise Interviews macht,
  • im Internet Archive recherchieren, ob dort die Dokumente archiviert sind und deren Links nutzen, oder
  • einen Forschungsdatensatz mit den Dateien in TORE anlegen.

Wir haben uns aufgrund des hohen Aufwands der Rechteeinholung und der fehlenden Archivierung im Internet Archive für das Anlegen eines Forschungsdatensatzes in TORE entschieden. Dort kann man pro Datensatz bzw. Dokument einen Zugriffsschutz (Embargo) festlegen. Zugriffsschutz bedeutet, dass die Dokumente nicht für alle öffentlich zugänglich sind und damit nicht als im Netz veröffentlicht gelten. Eine Weitergabe von Peer zu Peer ist damit möglich. Interessierte andere Forscher_innen können über den Account, über den die Daten hochgeladen wurden, die Zusendung der Dokumente anfragen.

Wie geht man bei der Erstellung eines Forschungsdatensatzes in TORE vor?

Die Dokumente sollten in einem möglichst langfristig betreuten Account erstellt werden, da interessierte Forscher_innen sich per Benachrichtigung über TORE an den_die Account-Besitzer_in richten. Dies schließt Mitarbeiter_innen mit kurzen befristeten Verträgen aus.

Es muss eine Beschreibung der Daten angelegt werden. Anschließend müssen alle Dokumente einzeln hochgeladen werden. Die Anzeige der hochgeladenen Dokumente erfolgt nach der Reihenfolge des Hochladens, d.h. das zuletzt hochgeladene erscheint oben. Eine Hierarchisierung oder Ordnerstruktur sind nicht möglich.

Für jedes Dokument kann bei den Access Settings ein Embargo, d.h. eine Frist, eingetragen werden. Das bestimmt, wie lange sie gesperrt sind und nur über eine Anfrage an den_die Account-Besitzer_in freigeschaltet werden können. Es ist auch möglich, pauschal eine Löschung nach 10 Jahren einzustellen. Es wird empfohlen, auch die einzelnen Daten zu beschreiben, um interessierten Forscher_innen das Datenmaterial bestmöglich zu erklären. Dies kann u.U. über die Dokumentenbezeichnung abgedeckt werden. In unserem Fall sind das Bundesland, die Hochschule, der Titel des Dokuments sowie das Erstellungsjahr relevant, was über die Dokumentenbezeichnung folgendermaßen sichtbar gemacht wird: bb_it_strategie_uni_potsdam_erstellungsjahr. Änderungen können nach der Bestätigung des Uploads nur noch per Anfrage von dem TORE-Team vorgenommen werden bzw. eine neue Version veröffentlicht werden.

Und so sieht das Ergebnis bei uns aus: Strategische Dokumente deutscher Hochschulen (Hochschulentwicklungspläne, Digitalisierungsstrategien).

Wir hoffen, dass wir zeigen konnten, dass Open Research von uns allen mit dieser guten Beratung ganz einfach umzusetzen ist. Über Eure/Ihre Erfahrungen freuen wir uns.

Mehr Informationen findet Ihr/finden Sie auf der Webseite der Bibliothek.

 

Bildnachweis: Photo by Markus Winkler on unsplash.com


Dieser Beitrag wurde Veröffentlicht von Christiane Arndt

]]>
4212: Ronny Röwert – Bildung im digitalen Zeitalter ist mehr als 0 oder 1 https://insights.tuhh.de/de/blog/open-discourses/open-education/2019/11/21/4212/ Thu, 21 Nov 2019 07:45:38 +0000

4212: Ronny Röwert – Bildung im digitalen Zeitalter ist mehr als 0 oder 1

Ronny Röwert spricht über Impulse für Lehrkräfte und Schulentwicklung unter digitalen Bedingungen

In einem zunehmend digitalen Umfeld werden Bildung, Unterrichtsgestaltung und Lernprozesse mit neuen Anforderungen und Veränderungspotenzialen konfrontiert. Wann kann Bildung durch digitale Möglichkeiten besser und gerechter werden und wann auch nicht? Ronny Röwert spricht in unserer aktuellen Folge auf Basis bisheriger persönlicher und beruflicher Erfahrungen darüber, warum Bildung in digitalen Zeiten von Technik profitieren kann, aber nicht zwangsläufig muss. Dabei hat er das digital.learning.lab als Plattform und Inspirationsquelle für Unterrichtsgestaltung in digitalen Zeiten mit frischen Neuigkeiten mitgebracht.

Ronny Röwert ist Wissenschaftlicher Mitarbeiter am Institut für technische Bildung und Hochschuldidaktik (ITBH) an der TU Hamburg.

 

 

Linkliste

Podcast Empfehlungen zum Weiterhören:
Bildung-Alt-Entfernen
Feierabenbier Open Education

learning.lab:
Unterrichtsbaustein „Texte (Märchen) digital und kollaborativ schreiben“

Weitere Links:
https://open-educational-resources.de/
#twittercampus
#twitterlehrerzimmer
ArbeiterKind.de

Literatur

Brause, M., Spahn T. (2018). Digitale Unterrichtsbausteine. Content für Bildung in der digitalen Welt. In: Synergie. Fachmagazin für Digitalisierung in der Lehre. Nummer 5. Verfügbar unter: https://www.synergie.uni-hamburg.de/de/media/ausgabe05/synergie05-beitrag17-brause-spahn.pdf

Clark, D. (2013). Sugata Mitra: Slum chic? 7 reasons for doubt. Zugriff am 12.11.2019. Verfügbar unter: http://donaldclarkplanb.blogspot.com/2013/03/sugata-mitra-slum-chic-7-reasons-for.html

Deimann, M. (2018). Open Education. Bielefeld: transcript.

Röwert, R. (2016). Digital native ist nicht gleich digital ready: Ein empirisch begründetes Petitum für die diversitätssensible Förderung von digitalen Kompetenzen in der Hochschullehre. In: Synergie. Digitalisierung in der Lehre. Nummer 1. Verfügbar unter: https://www.synergie.uni-hamburg.de/de/media/ausgabe01/synergie01-beitrag03-roewert.pdf

Röwert, R., Lah, W., Dahms, K., Berthold, C. & von Stuckrad, T. (2017). Diversität und Studienerfolg: Studienrelevante Heterogenitätsmerkmale an Universitäten und Fachhochschulen und ihr Einfluss auf den Studienerfolg – eine quantitative Untersuchung. CHE Arbeitspapier Nr. 198, Gütersloh. Verfügbar unter: https://www.che.de/downloads/CHE_AP_198_Diversitaet_und_Studienerfolg.pdf

Weitere Episoden

]]>
4210: Florian Hagen – Wissenschaftliches Schreiben unter digitalen Bedingungen https://insights.tuhh.de/de/blog/open-discourses/open-science/2019/08/15/florian-hagen-wissenschaftliche-arbeiten/ Thu, 15 Aug 2019 10:15:16 +0000

4210: Florian Hagen – Wissenschaftliches Schreiben unter digitalen Bedingungen

Florian Hagen spricht über Open Science und die Zukunft der Bibliotheken

Die Bachelor- oder Masterarbeit ist meist der längste und schwierigste Text, den die Studierenden jemals in ihrem Leben schreiben. Auf dem Weg dorthin kann man sich die Universitätsbibliothek mit ihren Angeboten zu einem Komplizen machen, diese Aufgabe zu bewältigen. Florian Hagen verrät uns, welche Möglichkeiten es gibt und  was bei Recherche und wissenschaftlichem Arbeiten hilft. Und er erklärt uns seine Motivation in der Bibliothek zu arbeiten und hat auch noch hilfreiche, moderne Publikationsformen im Ärmel. Zum Beispiel bietet Florian Hagen das Angebot zur Bachelor-Lehrveranstaltung „Wissenschaftliches Arbeiten“ an, in der mit hilfreichen Literaturverweisen, Verlinkungen und OER-Materialien verschiedene Themen des wissenschaftlichen Arbeitens und Schreibens behandelt werden.

 

 

Projekt HOS Modernes publizieren:
https://oa-pub.hos.tuhh.de/de/

Buchtipps:
300 Tipps für das wissenschaftliche Schreiben
von Philipp Mayer (Autor)
ISBN: 9783825243111

 

 

 

 

 

(Fast) alles über Wissenschaft und Forschung
von Verene Ahne, Stefan A. Müller (Autoren)
ISBN: 9783902976611

 

 

 

 

 

Weitere Episoden

]]>
Prüfungen mit JupyterHub https://insights.tuhh.de/de/blog/tools/2019/07/12/pruefungen-mit-jupyter-hub/ Fri, 12 Jul 2019 13:40:06 +0000 https://insights.tuhh.de/?p=19331

Im letzten Artikel Jupyter Notebook und JupyterLab wurde vorgestellt, wie Forschende das Programm Jupyter Notebooks nutzen können, um eigene Ergebnisse für andere nachvollziehbar festzuhalten. Wir am Institut für Maritime Logistik haben uns gemeinsam mit dem Fraunhofer-Center für Maritime Logistik und Dienstleistungen (CML) im Rahmen vom Projekt MaLiTuP (Maschinelles Lernen in Theorie und Praxis, gefördert vom BMBF) damit beschäftigt, wie man dieses Werkzeug schon den Studierenden näherbringen kann. Dieser Artikel stellt nun die Nutzung von Jupyter Notebook und JupyterHub in der Lehre vor.

Wieso sind Jupyter Notebooks gewählt worden?

Im Bereich der Logistik fallen verschiedenste Arten von Daten an, darunter zeitbehaftete Daten, raumzeitliche Daten sowie Bilder. Zeitbehaftete Daten sind beispielsweise die Ankunftsraten von Lkw an einen logistischen Knoten, während die Bewegungsdaten eines Schiffs oder eines Lkw dann raumzeitliche Daten darstellen. Bilddaten sind u. a. Aufnahmen von Dashcams zur automatischen Identifikation von Straßenschildern. Diese Daten wollen wir in der Lehrveranstaltung gemeinsam mit den Studierenden untersuchen. Aufgrund dieser Vielfalt eignen sich jedoch viele Programme mit klassischen grafischen Oberflächen nicht. Bei Jupyter Notebooks hingegen stellt dies kein Problem dar, weil es eine große Auswahl von bewährten Bibliotheken gibt, wie z. B. pandas für zeitbehaftete Daten, folium für das Darstellen von raumzeitlichen Daten oder scikit-learn für das maschinelle Lernen.

Alles hat seinen Preis: Die Studierenden mussten zunächst lernen, wie man Datenauswertungen in Form eines Skripts formuliert. Um die Einstiegshürde niedrig zu halten, wurden ihnen Teile des Jupyter Notebooks bereits gestellt. Der Schwerpunkt lag darauf, konzeptuell passend Lücken auszufüllen und Code-Teile umzustellen.

Vorlesungsbegleitend haben wir Übungen angeboten. Dafür ist auf den Pool-Rechnern Anaconda für Python 3.6 installiert worden. Da die Studierenden auch gerne zu Hause arbeiten, war Anaconda auch sehr schnell auf eigenen Laptops installiert. Dies hat je nach Laptop-Modell manchmal länger gedauert. Insgesamt haben die Studierenden schnell gelernt, wie man mit den Jupyter Notebooks Daten einliest, visualisiert und wie man aus diesen Daten einen wissenschaftlichen und wirtschaftlichen Mehrwert generieren kann. Die Vorlesung dagegen diente als Raum, um im Voraus Begriffe und Konzepte zu vermitteln und manche Erkenntnisse aus der Forschung zu diskutieren.

Warum nun JupyterHub einsetzen?

Eine der großen Herausforderungen von Lehrenden ist es, den Studierenden ein “rundes” Modul anzubieten. Dazu gehört, dass zu den erwünschten Lernergebnissen die passenden Lehr- und Lernmethoden ausgewählt werden. Erfahrungsgemäß werden hauptsächlich Inhalte, die abgeprüft werden, auch von den Studierenden gelernt. Daher sollte die Prüfung auch zu den gewünschten Lernergebnissen und den Lehr- und Lernmethoden passen. Hierbei spricht man auch von Constructive Alignment.

Uns war wichtig, dass die Lernerfolge mit Jupyter Notebook einen Teil der Modulnote ausmachen, um das Engangement in der Übung zu honorieren. Deswegen haben wir uns schon früh entschlossen, eine teilweise computergestützte Prüfung durchzuführen. Dies bedeutet, dass ein Teil der Klausur klassisch auf dem Papier und ein weiterer Teil am Laptop erledigt wird. Die Abgabe der Ergebnisse erfolgte somit zum Teil digital.

Erste Gespräche mit dem Rechenzentrum haben gezeigt, dass es schwierig ist, auf jeden einzelnen Prüfungs-Laptop eine Anaconda-Version zu installieren. Aufgrund der technischen Struktur bot es sich an, dass jeder Laptop sich mit einer zentralen Instanz verbindet. Dort sollte dann ein Jupyter Notebook laufen. Für so einen Zweck ist der JupyterHub geeignet. Dieser lässt jeden Nutzer, der einen validen Login-Namen und ein dazu passendes Passwort über die Webseite eingibt, im Browser ein Jupyter Notebook öffnen. Über das Jupyter Notebook kann der Nutzer dann selbstgeschriebenen Code auf dem Server ausführen lassen. Die Jupyter Notebooks lassen sich auf dem Server dauerhaft abspeichern und zu einem späteren Punkt weiterbearbeiten. In unserem Fall enthält das Jupyter Notebook die Klausuraufgaben. Teil der Abgabe am Ende ist dann das bearbeitete Jupyter Notebook. Weil das Jupyter Notebook als Datei auf dem Server vorliegt, kann es beispielsweise vom Systemadministrator dann zentral gesichert werden. Im Anschluss müssen die Ergebnisse entsprechend archiviert werden.

Und ist das sicher?

Manch IT-affinen Personen mag beim eben genannten Absatz bereits der Sicherheitsaspekt ins Auge gesprungen sein. Wenn Studierende sich alle auf einer zentralen Instanz einloggen, können sie dann dort Informationen austauschen und so bei einer Klausur täuschen? Wie sieht es mit Spicken aus? Gibt es vielleicht mit den Laptops vielleicht ganz neue Möglichkeiten, wie man sich als Studierender während der Prüfung einen Vorteil sicher kann, der so nicht vom Prüfenden vorgesehen war? Hier sollte man sich früh mit abgesicherten Browsern, Firewall-Einstellungen, Containerisierung u. ä. auseinandersetzen. Ebenso kann man sich verschiedene Szenarien überlegen, wie ein Studierender betrügen könnte. In den meisten Fällen lässt sich durch eine aufmerksame Klausuraufsicht auch hier bereits viel abfangen. Es ist schließlich (bis auf die Laptops) eine ganz normale Klausur in Präsenz und einer begrenzten Bearbeitungszeit.

Für die Prüfung haben wir uns in diesen Fall dazu entschieden, die Studierenden über docker-Container voneinander zu isolieren. Dadurch wird das Kommunizieren zwischen den Studierenden erschwert und die Gefahr minimiert, dass sich Studierende gegenseitig stören können. Zur Nutzerverwaltung fiel die Wahl auf CouchDB, weil es leichtgewichtig ist und bereits eine Web-Oberfläche namens Fauxton mitbringt. Über diese Oberfläche können Benutzeraccounts erstellt und modifiziert werden. Es gibt hier einige Alternativen für Fortgeschrittene.

Auf der virtuellen Maschine laufen über docker administriert mehrere Container, die untereinander vernetzt sind. Der JupyterHub-Container stellt die Login-Maske bereit. Beim Login wird das Passwort des Nutzers über CouchDB überprüft. Für jeden Nutzer wird nach dem Login ein eigener docker-Container mit einem Jupyter Notebook und vorinstallierten Python-Bibliotheken gestartet. Sobald der Nutzer eingeloggt ist, befindet er sich auf der Oberfläche der Software Jupyter Notebook und das Verhalten ist identisch.

Wenn man im laufenden Betrieb schaut, wie viele docker-Container parallel arbeiten, sieht man die CouchDB, den JupyterHub-Container und für jeden der Studierenden jeweils einen weiteren Container, in dem das eigene Jupyter Notebook ausgeführt wird. Mit ein wenig Übung in docker (hierfür gibt es regelmäßig docker-Workshops an der TUHH) und Kommandozeilen-Kenntnissen in Linux kann man nun den JupyterHub zur Laufzeit überwachen.

Verlauf der Prüfung

Im August haben wir die Planung der computergestützten Prüfung anvisiert, die dann im Februar anstand. Diesen zeitlichen Rahmen haben wir auch gut ausgeschöpft, denn neben der Konfiguration vom JupyterHub haben wir uns ausführlich mit den rechtlichen Aspekten einer computergestützten Prüfung ebenso wie mit operativen Fragestellungen beschäftigt. Wird während der Prüfung der Server genügend Ressourcen haben? Was passiert, wenn der Server abstürzt? Wie sieht der Plan aus, wenn die Laptops ausfallen? Kurz vor der Prüfung gab es prompt ein automatisches Update einer Bibliothek, die daraufhin die Jupyter Notebooks abstürzen ließ. Dies ließ sich zum Glück schnell dadurch beheben, indem auf eine frühere Version des docker-Image zurückgegriffen wurde. Als dann die Prüfung durchgeführt wurde, beobachteten wir die Auslastung und das Verhalten des Systems sehr genau. Es lief dann technisch gesehen alles wie gewünscht. Das Zusammenspiel von JupyterHub, CouchDB und den selbstgeschriebenen Python-Skripten hat sich als funktionstüchtig bewiesen.

Die Benutzerverwaltung über Fauxton bzw. selbstgeschriebenen Python-Skripten ist bislang eher eine Behelfslösung. Es wäre schöner, wenn es eine fertige Anwendung gäbe, die die Prüfungs-Accounts des Rechenzentrums einlesen und dann verwalten könnte. Dies sollte natürlich mit einem geringen Wartungs- und Administrationsaufwand einher gehen, um computergestützte Prüfungen realisierbar zu halten.

Ebenso war das Verhalten des abgesicherten Browsers nicht so, wie es sich der eine oder die andere Studierende gewünscht hat: Es ließen sich keine zwei Browser-Fenster nebeneinander anordnen. Dies ist nämlich dann hilfreich, wenn man das Benutzerhandbuch für ein Modul nebenbei geöffnet haben möchte.

Für die Studierenden war es eine ungewohnte Situation, in der Prüfung mit dem Laptop zu arbeiten. Die Anspannung war groß und manches, was in der Übung noch einfach von der Hand ging, war nun während der Prüfung etwas herausfordernder. Im nächsten Jahr wird nun geplant, noch besser auf diesen Aspekt einzugehen, um eine passgenaue Prüfung anbieten zu können. Von Jupyter Notebook als ein wertvolles Werkzeug für spätere Projekte in ihrem Studium waren die Studierenden auf jeden Fall überzeugt.

Hands On! Einen eigenen JupyterHub starten!

Eine funktionierende Konfiguration eines JupyterHubs zum Ausprobieren ist auf dem TUHH-Gitlab verfügbar. Für den Einsatz in der Prüfung müssen noch einige Sicherheitseinstellungen vorgenommen sowie ein Konzept für die Archivierung der Testergebnisse erstellt werden. Gerne stehe ich dafür als erster Ansprechpartner zur Verfügung. Zum Kennenlernen und Weiter-Basteln genügt die mit ausgelieferte Konfiguration.

Für den ersten Einsatz benötigt man einen Linux-Rechner mit Python 3 und docker. Als erstes muss die Datei „.env” angelegt werden. Dafür kann man sich die Datei „.env.sample” kopieren und auf jeden Fall das Passwort anpassen. Über das Skript „start.sh” wird dann der JupyterHub gestartet. Sobald dies ausgeführt worden ist, ist unter die Login-Maske für die Jupyter Notebooks verfügbar. Als Test-Account ist der Nutzer „test” mit dem Passwort „test” bereits angelegt. Die visuelle Benutzerverwaltung ist über http://<>:5984/_utils/ erreichbar (wobei der Platzhalter durch die IP-Adresse oder Vergleichbares ausgetauscht werden muss). Die Login-Credentials aus der „.env“-Datei werden nun hier für den Login verwendet. Durch das Löschen und Anlegen von sogenannten Dokumenten in der Datenbank „users” können Accounts entfernt oder hinzugefügt werden. Hierbei kann man sich am Beispiel-Benutzer “test” mit dem Passwort “test” orientieren.

Danksagung

Vielen Dank ans Zentrum für Lernen und Lehre (ZLL), an das Rechenzentrum (RZ) und an das Institut für Technische Bildung und Hochschuldidaktik (ITBH) für die konsequente Unterstützung ebenso wie für die Kekse!

Update 04.06.2020

Unter https://www.tuhh.de/mls/lehre/e-pruefungen.html ist eine weitere Reflexion des Prüfungsansatzes zu finden.

Dieser Beitrag wurde verfasst von Marvin Kastner.

Weitere Beiträge

Praktische Tipps: Digitale Lehre an der TUHH

Praktische Tipps: Digitale Lehre an der TUHH

Die Corona-Pandemie stellt auch die TU Hamburg vor große Herausforderungen. Um insbesondere den Lehrbetrieb bei möglichst reduzierten Kontaktzeiten aufrechtzuerhalten, wollen wir Sie gerne mit dieser Handreichung unterstützen.

]]>
Making of RUVIVAL Stop-Motion-Videos https://insights.tuhh.de/de/blog/tutorials/2019/07/10/making-of-ruvival-stop-motion-videos/ Wed, 10 Jul 2019 11:29:07 +0000 https://insights.tuhh.de/?p=19345

RUVIVAL ist ein Projekt im Rahmen der Hamburg Open Online University (HOOU), welches seinen Schwerpunkt auf die Entwicklung von e-Learning Materialien zur nachhaltigen ländlichen Entwicklung legt. RUVIVAL existiert seit 2016 mit dem Ziel, Wissen über nachhaltige Techniken, insbesondere im Bereich des Gewässer- und Bodenschutzes zu verbreiten.

Das von RUVIVAL entwickelte Material besteht aus vier Teilen: der Toolbox, Vorlesungen, einem Planspiel und Community Projekten. Neue Materialien werden jede Woche auf Englisch, Deutsch, Spanisch und Französisch veröffentlicht. Die Materialien werden gemeinsam mit Masterstudierenden, Promovierenden und/oder Forschenden am Institut für Abwasserwirtschaft und Gewässerschutz (AWW) der Technischen Universität Hamburg (TUHH) hergestellt.

Anwendungsorientierte Materialien befinden sich in der Toolbox, in der unterschiedliche Hilfsmittel bereitgestellt werden, um den ländlichen Raum wieder aufleben zu lassen, Synergien zu nutzen und degradierte, meist erodierte Landschaften wieder nutzbar zu machen. Eine Einführung in das jeweilige Thema bietet ein kurzes animiertes Video am Anfang der Toolbox, welches mit der Stop-Motion Technik hergestellt wurde.

Was sind Stop-Motion-Videos und wieso sind sie so wichtig für RUVIVAL?

Stop-Motion ist eine visuelle Technik des Geschichtenerzählens und bereits seit über einem Jahrhundert in der Filmproduktion bekannt. Es ist sogar die erste Animationstechnik überhaupt. Durch eine Reihe von einzelnen Bildern, die schnell hintereinander gezeigt werden, entsteht eine Illusion der Bewegung. Bei der Stop-Motion-Technik werden Ideen oft als eine Verbindung aus Kunst, Bewegung und Metaphern vermittelt.

Bei RUVIVAL benutzen wir die Stop-Motion-Technik, um komplexe Themen in einer simplen und beschreibenden Art darzustellen, bei der die Sprache nicht im Vordergrund steht. Der besondere Stil unserer Videos nennt sich Cut-Out-Animation. Bei dieser Technik werden flache Materialien wie z.B. Papier oder Stoff verwendet, um eine 2D Animation herzustellen. Wir fokussieren uns hierbei auf handgemachte Szenen im kleinen Format und haben mit der Zeit schon einiges über den Aufbau eines provisorischen Stop-Motion-Studios gelernt. Alle Bilder, die in den RUVIVAL-Stop-Motion-Videos genutzt werden, sind von unseren Mitwirkenden handgezeichnet. Alle genutzten Sound-Effekte sind frei zugänglich.

Uns ist es sehr wichtig, dass unsere Videos eine weltweite Zielgruppe erreichen. Teil unseres Konzeptes ist es, eine abstrakte Ikonographie zu schaffen, die zu Personen mit diversen kulturellen Hintergründen spricht. Wir benutzen eine Bild- und Symbolsprache, die so generell wie möglich ist. Das kann insbesondere an den menschlichen Darstellungen in unseren Videos beobachtet werden, die in einer abstrakten Weise gezeichnet sind und so keine geschlechtsspezifische, ethnische oder gar rassistische Stereotype reproduzieren. Diese Form der Darstellung bietet eine Projektionsfläche zur breiten Identifikation und schafft so trotz Abstratkion einen persönlcihen Bezug. Nachfolgend sind ein paar Beispiele von unseren Bildern zu sehen.

Außerdem haben wir in den letzten Jahren gelernt, dass nicht nur menschliche Charaktere ein Video universell machen. So haben wir zum Beispiel in unseren ersten Videos noch Bilder von Häusern und Bauernhöfen genutzt, die an die Architektur von US-Farmhäuser erinnern. Dies haben wir mittlerweile in den neueren Videos korrigiert, indem wir abstraktere Formen nutzen, wie auf den nachfolgenden Bildern zu sehen ist.

Zusätzlich verzichten wir auf Text in den Videos, damit Personen aus aller Welt die Videos in einer visuellen und nicht-textlichen Art und Weise verstehen können. Um dies zu erreichen, mussten wir unsere eigene Bildsprache für bestimmte wiederkehrende Konzepte entwickeln. Zum Beispiel haben wir das nachfolgende Bild entwickelt, um ökologische Vorteile darzustellen. Mit diesem Schritt zu einer nicht-textlichen Bildsprache entsteht außerdem der Vorteil, dass für spätere Übersetzungen dasselbe Video genutzt werden kann. Für ein einfaches Verständnis wird der Ton zum Video von einem professionellen Sprecher im Tonstudio eingesprochen.

Wie sieht der Produktionsablauf aus?

Seitdem wir 2016 angefangen haben, Videos zu produzieren, wurde schon viel erreicht und der Produktionsablauf wurde immer weiter verbessert. Der Produktionsablauf besteht aus drei Teilen: Vorproduktion, Studioproduktion und Postproduktion. Ein kleiner Überblick über die Produktion als Video:

Teil 1. Vorproduktion

Jede Produktion fängt mit der Vorproduktionsphase an, in der das ganze Video geplant wird und die Storyboards entstehen. Diese werden mehrfach überprüft und besprochen, bevor das Video dann gefilmt wird. So verbessern wir die Qualität der Videos und müssen am Ende keine Szenen nachdrehen, falls sie nicht so wirken wie sie sollten. Im ersten Schritt schreiben Studierende ein Skript, welches danach von den Betreuer_innen Korrekturgelesen wird. Danach wird das Skript in mehrere Szenen aufgeteilt, wodurch das Storyboard entsteht. Das Storyboard wird zunächst in Tabellenform angefertigt, in der jeweils beschrieben wird, was in den jeweiligen Szenen passiert, welche Elemente genutzt werden und wie die Geschichte sein wird. Das so entstandene Storyboard erhält dann abermals Feedback und Kritik von den Betreuenden. Eine Vorlage zu unserem tabellarischen Storyboard kann hier heruntergeladen werden.

Sobald das tabellarische Storyboard genehmigt ist, wird ein animiertes Storyboard in PowerPoint erstellt, in welchem die Studentin oder der Student Bilder aus unserer Datenbank und/oder dem Internet benutzt und die Erzählstimme mit ihrer bzw. seiner eigenen Stimme einspricht. Dieses animierte Storyboard ist sehr wichtig für unseren Produktionsprozess, da es uns hilft, die finale Version des Videos bildlich vorzustellen. Außerdem kann so überprüft werden, ob das Video die Aufmerksamkeit der Zusehenden gewinnen kann. Wir haben einen Leitfaden erarbeitet, dem wir mittlerweile folgen, wenn wir ein Video produzieren. Dieser Leitfaden wird in unserer folgenden Schritt-für-Schritt Anleitung aufgezeigt.

Die wichtigsten Aspekte, die man bei einer Szene bedenken muss, sind:

  • Folge den in der Fotografie eingesetzten Gestaltungsregeln wie dem „Goldene Schnitt” oder der „Drittel-Regel“. Der „Goldene Schnitt” basiert auf dem Verhältnis von 1 zu 1,618 und kreiert ein Harmonieempfinden und Gleichgewicht bei den Betrachtenden. Der Goldene Schnitt ist überall in der Natur zu finden, weshalb er ansprechend für das menschliche Auge erscheint. In der Fotografie kann der „Goldene Schnitt” mit Hilfe des Phi Grids, oder der Fibonacci-Spirale angewendet werden. Das Phi Grid entsteht, indem das Bild in neun Sektionen unterteilt wird, wodurch ein Raster im Verhältnis 1:0,618:1 entsteht. Es wird angewendet, indem wichtige Elemente des Bildes entlang der Rasterlinien oder an den Schnittstellen angeordnet werden. Die Fibonacci-Spirale hingegen basiert auf der Fibonacci-Folge und wird angewendet, indem ein Element mit den meisten Details in das kleinste Viereck und der Rest des Objekts entlang der Spirale angeordnet wird. Die „Drittel-Regel” ist ähnlich zu dem Phi Grid, hierbei wird das Bild in 9 gleich große Teile aufgeteilt und die wichtigen Elemente werden entlang der Linien und/oder der Schnittstellen angeordnet.
  • Gestalte die Szene so simpel wie möglich, da zu viele Elemente den Betrachter verwirren, oder die Aufmerksamkeit von den wichtigen Elementen wegnehmen können.
  • Definiere den Ablauf, damit es immer nur einen Fokuspunkt zurzeit gibt und die einzelnen Objekte sich nicht gegenseitig die Aufmerksamkeit nehmen.
  • Benutze den gleichen Stil für alle Zeichnungen, die im Video verwendet werden und sei einheitlich, also, benutze den gleichen Stil um Personen, die Umwelt, etc. darzustellen.
  • Vermeide Text!

Sobald das animierte Storyboard ausgereift ist, können die Bilder für das Video final gezeichnet werden. Wir versuchen, denselben Stil für alle Zeichnungen zu benutzen. Da alle Bilder von den Studierenden handgemalt werden, haben wir einen Stil entwickelt, der schlicht ist und einfach von allen angewandt werden kann. Von Anfang an haben wir die Zeichnungen für die Videos gesammelt und zu unserer Datenbank hinzugefügt, sodass wir mittlerweile über 400 Bilder haben. Daher müssen nur wenige Bilder neu gemalt werden, um ein neues Video zu produzieren. Nachdem alle Bilder gemalt sind, werden sie ausgedruckt, zurechtgeschnitten und szenenweise in Umschläge sortiert. Danach sind wir bereit, um ins Studio zu gehen.

Teil 2. Studioproduktion

Die Studioproduktion besteht aus zwei Teilen: dem Filmen des Videos und dem Aufnehmen des Tons. Gefilmt wird im Studio des Multimedia Kontors Hamburg (MMKH). Deren Studio hat eine Kamera, die über einem Tisch mit einem Stativ befestigt ist auf dem die einzelnen Szenen arrangiert und aufgenommen werden. Um ein ungefähr 3-minütiges Stop-Motion-Video zu filmen, werden üblicherweise fünf bis acht Stunden gebraucht. Unsere Erfahrung hat gezeigt, dass ein Vorsortieren der Bilder in Umschläge für die jeweiligen Szenen die benötigte Zeit für das Filmen verringert, da jedes Video eine Vielzahl an Bildern hat und es manchmal lange dauern kann, die kleinen Bilder wiederzufinden. Der Ton wird auch in einem Studio aufgenommen, in unserem Fall ist dies ein Tonstudio mit einem professionellen Sprecher, der Muttersprachler ist.

Teil 3. Postproduktion

Der letzte Teil des Produktionsprozesses ist die Postproduktion. Diese findet in einem Schnittraum des Instituts für Technische Bildung und Hochschuldidaktik (iTBH) statt, in dem ein Computer mit professioneller Schnittsoftware zur Verfügung steht. Dort werden die Videobilder mit dem professionell aufgenommenen Ton zusammengesetzt. Zusätzlich werden Soundeffekte eingefügt, damit das Video unterhaltsamer wird.

Da wir so viele Personen mit so vielen Sprachen wie möglich erreichen wollen, sind alle Videos von uns für Beiträge offen, sodass du hier Untertitel in jeder Sprache einfach hinzufügen kannst. Wir freuen uns sehr über jedes Feedback zu unseren Videos, das du uns gerne über die Kontaktform schicken kannst.

Um dir anzuschauen, wie der Produktionsprozess tatsächlich aussieht, schau dir die nachfolgenden Bilder an.

Hier kannst du dir RUVIVAL-Stop-Motion Videos angucken. Vergiss nicht unseren YouTube und Vimeo Kanal zu abonnieren, damit du keine RUVIVAL-Videos mehr verpasst!

Dieser Beitrag wurde verfasst von Carla Orozco García und Dr. Ruth Schaldach.

Weitere Beiträge

Teil 1: Making-Of Serie RUVIVAL Planspiel

Teil 1: Making-Of Serie RUVIVAL Planspiel

Dies ist der Beginn einer Making-Of Serie zu Aspekten des RUVIVAL Planspiels. Ziel der Serie ist es nicht nur unsere Erfahrungen zu teilen und zum mitmachen einzuladen, sondern auch anderen Lehrenden zu ermöglichen dieses Planspiel zu reproduzieren oder nach ihren Bedürfnissen zu adaptieren.

]]>
Forschungsdatenmanagement in BRIDGING https://insights.tuhh.de/de/blog/open-discourses/open-science/2019/05/08/forschungsdatenmanagement-in-bridging/ Wed, 08 May 2019 11:53:46 +0000 https://insights.tuhh.de/?p=19173 Aktuelle Diskurse in der Forschung weisen zunehmend auf das Potenzial offener Forschungsprozesse hin. So kann beobachtet werden, dass offene Forschungspraktiken entlang des gesamten Forschungsprozesses zunehmend an Bedeutung gewinnen. Will man Offenheit jedoch ernsthaft in einem Forschungsprozess berücksichtigen, bedeutet dies, dass Offenheit sich nicht nur im Bereich von Open-Access-Publikationen niederschlägt. Vielmehr geht es darum, die Prinzipien offener Forschung von Beginn an zu berücksichtigen (vgl. Steinhardt 2018). Das Projekt BRIDGING bot die Gelegenheit, genau diese zeitgemäßen Praktiken in der Datenerhebung und Datenverarbeitung aufzugreifen und im Forschungsprozess anzuwenden, wobei in diesem Forschungsprojekt ein qualitatives Forschungsdesign verfolgt wird.

Offenheit von Anfang an

Konkret bedeutet dies, dass sowohl die Datenerhebung, die Datenauswertung und die Datenarchivierung abhängig von den Prinzipien der qualitativen Sozialforschung offen gestaltet werden. Damit einher gehen unterschiedliche technische, aber vor allem auch soziale Anforderungen. Insbesondere in der qualitativen Forschung stehen wir hier vor der Herausforderung, die erhobenen Daten zu anonymisieren und die Interviewpartner_innen davon zu überzeugen, ihr gesprochenes Wort auch offen zugänglich zu machen. Diese Vorbehalte wurden auch schon von anderen Forscher_innen thematisiert (vgl. Fecher, Friesike, und Hebing 2015; Whyte und Pryor 2011).

Doch was bedeutet es nun konkret, Offenheit in einem qualitativen Forschungsprozess zu berücksichtigen und sowohl die Zugänglichkeit der Daten als auch deren Nachnutzung zu gewährleisten?

Lessons learned

Im Rahmen des qualitativen Forschungsprojektes BRIDGING haben wir hierzu einige Erfahrungen gesammelt, die wir in diesem Beitrag gerne weitergeben wollen.

BRIDGING ist als qualitatives Forschungsprojekt angelegt und untersucht den Transfer digitaler Hochschulbildungskonzepte aus Hochschulverbünden in Fachdisziplinen. Die Datengrundlage hierbei sind individuelle leitfadengestützte Interviews. Diese entsprechend des Open Science Ansatzes offen und transparent zugänglich zu machen, zieht einige Implikationen nach sich.

Davon ausgehend hat das Team von BRIDGING schon sehr früh im Projekt (Frühjahr 2018) das Beratungsangebot der Universitätsbibliothek der TU Hamburg (tub.) zum Forschungsdatenmanagement (FDM) wahrgenommen. Im Hinblick auf eine spätere Nachnutzungsmöglichkeit der erhobenen Daten durch andere Forschende wurde mit Hilfe einer Juristin an der tub. eine Einverständniserklärung verfasst, die verschiedene Grade von Offenheit in der Nachnutzung vorsieht. Interviewpartner_innen im Projekt sollten schon vorab darüber aufgeklärt werden, dass die Absicht besteht, ihre Aussagen durch die Zugänglichmachung in einem wiss. Datenrepositorium für Interessierte bereitzustellen.

Als Datenrepositorium wurde für diesen Zweck gesis ins Auge gefasst, das 2018 in der wiss. Community als erster Anlaufpunkt für sozialwissenschaftliche Daten galt. Nach Abschluss der Auswertung einer großen Zahl von Interviews wurde Anfang 2019 der Überstellungsvorgang der Daten an gesis aufgesetzt. Ein Telefonat mit dem Datenrepositorium zum Zweck einer abschließenden Beratung und Validierung des geplanten Vorgehens förderte den Umstand zutage, dass gesis nur noch quantitative Daten aufnehmen würde. Beispiele qualitativer Daten im datorium von gesis, an denen sich das Team BRIDGING orientiert hatte, wurden als Sonderfälle aus den Anfangszeiten des Forschungsdatenzentrums eingeordnet.

Zusammenarbeit und Unterstützung

Diese Aussage forderte dazu auf, einen neuen Ort für die Interviewdaten aus BRIDGING zu suchen. Die Beratung bei gesis hatte das DFG-geförderte Projekt Qualiservice in Bremen empfohlen, das sich auf qualitative sozialwissenschaftliche Daten spezialisiert hat. Eine erste telefonische Kontaktaufnahme mündete unmittelbar in eine sehr positive Beratung und Begleitung des FDM-Prozesses. So konnten in weiteren Telefonaten mit Projektmitarbeiter_innen in Bremen auch forschungsethische und technische Fragen im Umgang mit den Daten geklärt werden. Das Team BRIDGING wurde u.a. in der Absicht bestärkt, von den Interviewpartner_innen eine weitere Einverständniserklärung mit detaillierten Aussagen zu den Rahmenbedingungen des FDM einzuholen, wenn diese einer Zugänglichmachung grundsätzlich zugestimmt hatten.

Dieses Anschreiben wurde in wechselseitiger Abstimmung formuliert, wobei auch viel Wissen und Praxiserfahrung im Umgang mit Forschungsdaten in der Nachnutzung kommuniziert wurden. So wurde bspw. deutlich, dass die Zugänglichmachung von Forschungsdaten bei Qualiservice in Bremen an sehr strikte Bedingungen geknüpft ist. Der Aufwand, der mit der Nachnutzung verbunden ist, schützt die Teilnehmenden von Studien jedoch vor nicht-wissenschaftlichen Zugriffen auf ihre Daten und grenzt sich damit von frei zugänglichen Datenplattformen wie Zenodo ab.

Außerdem konnte festgestellt werden, dass die Kenntnis und Berücksichtigung aller Bedingungen für die Zugänglichmachung von Forschungsdaten zu Beginn einer Erhebung diese beeinflusst hätte. Das bedeutet, wenn ein Ziel in einem Forschungsprojekt die abschließende Zugänglichmachung der Daten ist, kann dieses durch das Design der Erhebung präziser angestrebt werden, wenn alle Bedingungen des FDM vorher bekannt sind und berücksichtigt werden. Allerdings ist das Team BRIDGING zu dem Schluss gekommen, dass sich dieses Ziel auch auf die Formulierung der Interviewfragen und die Atmosphäre des Gesprächs auswirken und ggf. die Aussagen der Teilnehmenden unerwünscht lenken könnte.

Es kann an dieser Stelle des Forschungsprozesses festgestellt werden, dass die Erhebung qualitativer Daten mit einem erheblichen Aufwand für die Nachnutzung verbunden ist. Dieser besteht nicht nur in der besonderen Aufbereitung für die Nachnutzung (Anonymisierung/Pseudonymisierung), sondern auch in der Abstimmung der Transkripte mit den Teilnehmenden der Studie. Dies nimmt Zeit in Anspruch und birgt das Risiko, dass Teilnehmende trotz anfänglicher Zustimmung für die Zugänglichmachung ihrer Aussagen, diese zurückziehen, wenn sie sie schwarz auf weiß vorgelegt bekommen.

Wir befinden uns noch im Forschungsprozess, da das Projekt BRIDGING erfreulicherweise bis Ende 2019 verlängert wurde. Daher können und wollen wir an dieser Stelle weiter berichten.

Literatur

  • Fecher, Benedikt, Sascha Friesike, und Marcel Hebing. 2015. «What Drives Academic Data Sha-ring?». PLoS ONE 10 (2): https://doi.org/10.1371/journal.pone.0118053
  • Steinhardt, Isabel. 2018. «Open Science-Forschung und qualitative Methoden – fünf Ebenen der Reflexion». MedienPädagogik 32, (Oktober), 122–138. https://doi.org /10.21240/mpaed/32/2018.10.28.X.
  • Whyte, Angus, und Graham Pryor. 2011. «Open Science in Practice: Researcher Perspectives and Participation«. IJDC 6 (1): 199–213. https://doi.org/10.2218/ijdc.v6i1.182
]]>
Jupyter Notebook und JupyterLab https://insights.tuhh.de/de/blog/tools/2019/02/21/jupyter-notebook-und-jupyterlab-fuer-open-science/ Thu, 21 Feb 2019 19:36:34 +0000 https://insights.tuhh.de/?p=18795

Die preisgekrönte Software Jupyter Notebook ist in vielen Forschungsbereichen zum Defacto-Standard geworden. Bei der Entwicklung von Algorithmen, der Verarbeitung von Daten und der Zusammenarbeit in offenen Forschungsprozessen spielt die Software ihre Stärken aus. JupyterLab ist die Weiterentwicklung von Jupyter Notebook und bietet vor allem auf der Benutzeroberfläche einige sinnvolle Neuerungen (vgl. Abb. 1).

Abbildung 1: Screenshot JupyterLab. Quelle: https://jupyterlab.readthedocs.io/en/latest/

Loslegen mit Jupyter

Die klassische Arbeit in Jupyter Notebooks beginnt mit dem Import von Daten. Mit zahlreichen Skript- und Programmiersprachen können diese aufbereitet, analysiert und visualisiert werden. Unter den verfügbaren Kerneln befindet sich auch eins für Matlab, das in den Ingenieurwissenschaften nach wie vor stark verbreitet ist.

Da Jupyter Notebook mit so genannten Zellen arbeitet, können sich Codezellen und Textzellen abwechseln. Code wird direkt in den Zellen ausgeführt, Texte werden in Markdown verfasst. Dadurch können Hypothesen und Annahmen über die Daten formuliert und anschließend mithilfe von Code direkt überprüft werden. Die folgende Zelle hält dann die Beobachtung und Interpretation fest. So entstehen reproduzierbare Forschungstagebücher und im fortgeschrittenen Stadium publikationsreife Artikel. Abb. 2 zeigt an einem einfachen Beispiel die Verzahnung von Text und Code.

Abbildung 2: Screenshot eines Jupyter Notebooks, das die Kombination von Code- und Textzellen zeigt. Quelle: eigene Darstellung

Was Burger und Notebooks gemeinsam haben

Die Jupytertools haben deshalb in vielen verschiedenen Domänen einen bedeutenden Stellenwert erlangt, weil sie den klassischen wissenschaftlichen Workflow so komprimiert abbilden wie ein Burger ein Dreigängemenü:

  • Salat und Brot als Vorspeise
  • Fleisch im Hauptgang und
  • Käse zum Abschluss

Für Jupyter Notebook heißt das:

  • Analysieren und erkennen
  • Schreiben
  • Publizieren

Wie auch der Hamburger die Abfolge der drei Gänge zeitlich und räumlich in sich vereint, finden auch in einem Notebook die drei Schritte des wissenschaftlichen Arbeitens zeitgleich und iterativ statt: Während ich forsche, schreibe ich auf, was ich beobachte, forsche mit neuen Erkenntnissen weiter, schreibe und schreibe und veröffentliche im besten Sinne von Open Science schon während des Forschungsprozesses meine Mitschriften und Daten.

Mein Forschungsergebnis veröffentliche ich dann am besten in einem Open-Access-Journal und zitiere darin den Digital Object Identifier (DOI), unter dem meine Notebooks zu finden sind. Den DOI habe ich von Zenodo bekommen, als ich dem Dienst einen Link zu meinem GitHub-Repo mit meinen Jupyter Notebooks gezeigt habe.1 Der Journalartikel zusammen mit meinen Notebooks und Daten machen mein Forschungsergebnis und das Vorgehen transparent und nachvollziehbar.

Um es anderen Wissenschaftler_innen noch einfacher zu machen, nutze ich Tools wie binder, die es erlauben, Notebooks aus dem Git[Hub|Lab]-Repo direkt im Browser interaktiv nachzuvollziehen, um damit die Ergebnisse aus der Publikation zu reproduzieren und zu prüfen. Abb. 3 visualisiert diesen möglichen Workflow exemplarisch.

Abbildung 3: Exemplarischer Publikationsworkflow mit Jupyter Notebook. Quelle: eigene Darstellung

Über den folgenden Button

 

kann das Beispiel aus Abb. 2 direkt im Browser nachvollzogen werden. In der sich öffnenden Ansicht ist die Datei jupyter-beispiel.ipynb anzuklicken. Anschließend können die Zellen geändert und mit STRG+ENTER erneut ausgeführt werden.

Abbildung 4: Darstellung der Dateien in Jupyter Notebook

Jupyter Notebook und JupyterLab laufen auf allen relevanten Betriebssystemen als Browsertool und können bspw. mithilfe von Anaconda auf dem eigenen Rechner installiert werden. Über eine serverseitige Installation von JupyterHub sind auch kollaborative Arbeiten an Daten- und Forschungsprojekten möglich.

Jupyter-Notebook-Installationen sind einfach über Plugins zu erweitern. So können z.B. mit RISE Präsentationen direkt aus Notebooks erstellt werden. Jede Zelle kann dabei zu einer eigenen Folie werden, in der der Code bei einer Präsentation live ausgeführt werden kann!

Jupyter an der TUHH

Die TUHH verfügt seit 2018 über einen JupyterHub, der im WiSe 2018/19 erstmals auch für elektronische Prüfungen eingesetzt wird. Zuvor hatten die Studierenden ein Semester lang eine handlungsorientierte Einführung in Machine-Learning-Grundlagen mit Python, wobei Jupyter Notebooks das zentrale Tool waren. Wir werden in diesem Blog noch ausführlich darüber berichten.

Weiterführende Links


  1. Die Vergabe von DOIs ist derzeit nur für GitHub-Repositories möglich. Repos im GitLab der TUHH können jedoch einfach zu GitHub gespiegelt werden. Mehr dazu im Blog der TU Bibliothek↩

Dieser Beitrag wurde verfasst von Axel Dürkop. Er erschien zuerst im Workshopskript “Kollaborieren in Forschung und Lehre” und würde für diesen Beitrag noch einmal überarbeitet. Teaserbild “Vpython in Jupyter Notebook” von thekirbster, CC-BY 2.0

Weitere Beiträge

SeaPiaC

SeaPiaC

The aim of the project is to create a digital collaborative learning environment in which students of TUHH and NCKU collaborate on challenges of sustainable nature-based coastal protection in times of a changing climate.

]]>
4203: Sabrina Maaß – Was sind offene Bildungsmaterialien? https://insights.tuhh.de/de/blog/hooutuhh/2018/12/20/4203/ Thu, 20 Dec 2018 16:47:15 +0000

4203: OERientation und offene Bildungsmaterialien

Sabrina Maaß spricht über offene Bildungsmaterialien

OERientation ist ein offenes, digitales Lernangebot für Lehramtstudierende und Lehrende, das über die Erstellung und Verwendung von OER – also offene Bildungsmaterialien – aufklärt. Podcast 42 spricht mit Sabrina Maaß, die OERientation konzipiert und entworfen hat.

Alle Episoden

]]>