Axel Dürkop – Insights https://insights.tuhh.de/de/ Einblicke in das digitale Experimentierfeld für Lehre und Forschung an der Technischen Universität Hamburg Thu, 06 May 2021 20:28:14 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.17 https://insights.tuhh.de/wp-content/uploads/2018/06/cropped-Flavcon_I_Kusiv-32x32.png Axel Dürkop – Insights https://insights.tuhh.de/de/ 32 32 Transparent und effizient mit Mattermost kommunizieren https://insights.tuhh.de/de/blog/tools/2020/03/26/transparent-und-effizient-mit-mattermost-kommunizieren/ Thu, 26 Mar 2020 16:00:03 +0000 https://insights.tuhh.de/?p=14573

Die Art, sich elektronisch zu vernetzen und zu kommunizieren, hat sich in den vergangenen Jahren stark verändert. Soziale Netzwerke sind an die Stelle von Email getreten und Smartphones zu den zentralen Eingabegeräten geworden. Die Kommunikation in diesen Netzwerken verzichtet auf Schnörkel und kann binnen Kurzem viele Akteur_innen einbinden. Insbesondere in der aktuellen Zeit, in der die meisten Personen im Homeoffice arbeiten, gewinnen niederschwellige, zum Teil auch informelle Kommunikationswege an Bedeutung. Aber auch in entspannteren Zeiten haben soziale Netzwerktools in Lehre und Forschung schon ihren Platz eingenommen (vgl. Perkel, 2016 und Hand, 2016a, 2016b).

Am Institut für Technische Bildung und Hochschuldidaktik (ITBH) haben wir 2016 Mattermost eingeführt, um das Potenzial eines modernen Chattools zu testen. Slack schied nicht zuletzt aufgrund seines Geschäftsmodells und seiner Datenschutzbedingungen aus. Mattermost ist freie Software und damit auch mit der Policy für Offenheit in Forschung und Lehre der TUHH vereinbar. Waren anfangs nur wenige Kolleg_innen aktiv, wächst deren Zahl mit jedem neuen Projekt an. Die Akzeptanz von Mattermost als zentralem Kommunikationswerkzeug gelang vor allem mit einer persönlichen Einführung in die Anwendung des Tools und einem gemeinsamen Aushandlungsprozess, wie es allen Beteiligten den größten Nutzen bringt – und mit Geduld. Da es direkt mit der GitLab-Instanz der TUHH verbunden ist, ergeben sich weitere positive Effekte in der Projektkoordination.

Projektkommunikation im Team

Die oberste technische Ordnungseinheit ist in Mattermost das Team. Ob Teams nach außen sichtbar und frei zugänglich sind, kann individuell entschieden werden. Es macht Sinn, die Teilnahme an einem Team über Einladungen zu steuern, da bei aller gewünschten Transparenz oft Interna verhandelt werden. An der TUHH sind mittlerweile mehrere Institute in Mattermost-Teams organisiert und beziehen auch externe Partner_innen bspw. in Drittmittelprojekten mit ein.

Für den Austasch zur digital gestützten Lehre an der TUHH wurde im März 2020 das hochschulweite Team OnlineEduTUHH eingerichtet. Eine Einleitung zur Anmeldung für dieses Team gibt es in den Praktischen Tipps für das Umstellen der Präsenzlehre an der TU Hamburg.

Transparent kommunizieren

Mattermost kennt drei Abstufungen von Transparenz im Team:

  • Öffentliche Kanäle. Öffentliche Kanäle können von allen Teammitgliedern angelegt und abonniert werden. Die Kommunikation in einem öffentlichen Kanal kann von allen mitgelesen und mitgestaltet werden, die ihn abonniert haben. So lässt sich die Kommunikation im Projekt thematisch ordnen und offen führen (vgl. Abb., (1)).
  • Private Kanäle. Soll es in einem Team Bereiche geben, in denen nur eingeladene Mitglieder kommunizieren, können private Kanäle eingerichtet werden. Diese sind unsichtbar für Außenstehende und können bspw. vom Dozententeam verwendet werden, wenn Mattermost in der Lehre zum Einsatz kommt (vgl. Abb., (2)).
  • Direktnachrichten. Für einen direkten Austausch zwischen allen Nutzer_innen von Mattermost an der TUHH steht letztlich die Funktion zur Verfügung, Direktnachrichten zu verschicken. Es können auch adhoc-Gruppen kommunizieren, indem mehrere Teilnehmende in einen Chat mit Direktnachrichten einbezogen werden (vgl. Abb., (3)).
Hauptansicht in Mattermost (Quelle: Homepage Mattermost)

Nachrichtenflut organisieren

Insbesondere wenn viele Menschen in einem Team zusammenkommen, kann es leicht passieren, dass einzelne Nachrichten untergehen. Dagegen gibt es einige leichte Tipps und Tricks, die den Umgang mit vielen Nachrichten vereinfachen:

  • Anzeigen ungelesener Nachrichten: Oben links in der Seitenleiste kann man durch Klick auf den eigenen Namen die Kontoeinstellungen Unter Seitenleiste > Kanalgruppierung und -sortierung einfach einen Haken bei „Ungelesene separat gruppieren“ setzen und schon werden ungelesene Nachrichten oben in der Seitenleiste gebündelt dargestellt.
  • Direkte Ansprache von einzelnen Personen: Wenn einzelne Personen in einem Kanal direkt angesprochen werden, kann dies über @benutzername gemacht werden. Der Vorteil ist, dass die Person direkt eine Benachrichtigung darüber bekommt.
  • Antworten auf Nachrichten: Um die unterschiedlichen Gesprächsstränge in einem Kanal etwas zu strukturieren, sollten Antworten auf eine Nachricht über den Antwortpfeil rechts neben der Nachricht erfolgen. So werden alle Nachrichten und Antworten zu einem Thema in einem sogenannten Thread zusammengefasst.
  • Markieren von zentralen Nachrichten: Zentrale Nachrichten, die für alle Teammitglieder interessant und relevant sind, können manuell mit einem digitalen Pin versehen werden, damit sie unter der Fülle von Nachrichten nicht untergehen. Diese gepinnten Nachrichten können in dem jeweiligen Kanal über das Stecknadel/Reißzwecken-Symbol oben rechts eingesehen werden.

Dateiablage individuell aushandeln

Wenngleich Mattermost die Möglichkeit bietet, auch Dateien im Chat zu teilen, empfiehlt es sich, davon wenig Gebrauch zu machen. Denn die Erfahrung zeigt, dass die Dateien schlecht wiedergefunden werden können, wenn sie erst einmal im Stream verschwunden sind. Auch ist oft nicht klar, welches die letzte verlässliche Version einer Datei ist.

Aus diesen Gründen sind wir dazu übergegangen, Dateien an anderen Orten zu speichern, und im Chat nur die Orte zu benennen, wo sie zu finden sind. Dieses Vorgehen ermöglicht allen Beteiligten, in ihren Projekten die Orte der Dateiablage individuell auszuhandeln. Nextcloud oder GitLab an der TUHH kommen hier in Frage, aber auch proprietäre Dienste von Drittanbietern.

Proaktives und empathisches Teilen

Wie Hand (2016b) aufzeigt, kann die Kommunikation in Tools wie Mattermost die Empathie für andere Teammitglieder und deren Aufgaben erhöhen. Während Linkempfehlungen per Mail noch nie gut gelitten waren, sind Hinweise auf Quellen, die andere im Team interessieren könnten, in Mattermost keine Last, sondern eine Bereicherung. Am ITBH pflegen wir in diesem Sinne das proaktive Teilen von Informationen, von denen wir denken, andere sollten sie auch haben. Sich dafür zu bedanken, ist nicht unbedingt notwendig, kann aber sehr unaufwändig mit einem Emoji geschehen.

Aktivitäten im Blick behalten

Mattermost wirbt damit, mehrere hundert Apps von Drittanbietern integrieren zu können. Wir nutzen dieses Potenzial am Institut bisher nicht, weil noch niemand danach verlangt hat. Eine Integration, die wir intensiv nutzen und die Entwicklungsgeschwindigkeit von Text- und Softwareprojekten sehr beschleunigt, ist GitLab. In dedizierten Bot-Kanälen lassen wir uns über Ereignisse in GitLab informieren. Wenn bspw. jemand ein neues Issue anlegt, Dateien ergänzt oder neu hochgeladen werden oder Buildpipelines scheitern, meldet GitLab das Ereignis in Mattermost. So können wir schnell darauf reagieren.

Mattermost spielt seine Stärken in der synchronen Kommunikation genauso aus wie in der asynchronen. Wenn alle während der üblichen Bürostunden an ihren Rechnern sitzen – im Institut oder im Home Office – ist der Austausch über Mattermost wesentlich schneller und präziser als per Mail. Da es oft um Texte, Formeln, Codeschnipsel und Links auf Dateiablageorte geht, ergänzt Mattermost das persönliche Gespräch sinnvoll. Aber auch in der Zusammenarbeit mit studentischen Hilfkräften und Tutor_innen leistet Mattermost gute Dienste. Sie können an ihren oft wechselnden Arbeitstagen die vergangene Kommunikation im Projekt nachvollziehen und sich schnell wieder auf den Stand bringen.

Mattermost in der Lehre

2017 hat Axel Dürkop Mattermost erstmals in der asynchronen Betreuung von Studierenden eingesetzt und damit bisher ganz gute Erfolge gehabt. Die Herausforderungen liegen dabei nicht in der Benutzung des Tools. Vielmehr ist die Frage zunächst, wie Mattermost so attraktiv gemacht werden kann, dass es an die Stelle von WhatsApp tritt, das Studierende bisher sehr häufig für den Austausch innerhalb ihrer Kohorten einsetzen. Das Argument ist stets, dass wenn sie auf die Unterstützung von Axel Dürkop als Dozent Wert legen, sie sich über Mattermost an ihn wenden müssen. Wenn er eine Mail bekommt, bittet er darum, die Frage oder das Anliegen noch einmal in Mattermost zu formulieren – außer, es handelt sich um persönliche Angelegenheiten. Oft bekommt er dann eine Direktnachricht, die er gern beantwortet. Gleichzeitig werden die Studierenden gefragt, ob sie sich nicht vorstellen können, ihre Anfrage auch in einem öffentlichen Kanal zu stellen. Manchmal ergeben sich daraus dann erweitere Diskussionen mit anderen Studierenden.

Eine weitere Herausforderung liegt darin, dass die Studierenden über die Woche zu sehr unterschiedlichen Zeiten an ihren Rechnern sitzen und die gestellten Aufgaben erledigen. Damit Tutor*in und Lehrende*r dann auch online sind, wurden die Projektteams im vergangenen Semester gebeten, ihre TOBOT (Time Of Being Online Together) bestimmen lassen. Wir haben dann versucht, auch zu diesen Zeiten online zu sein, um uns möglichst zeitnah in die verhandelten Probleme und Fragestellungen einmischen zu können – wenn diese transparent in öffentlichen Kanälen waren. Die Idee halten wir nach wie vor für sinnvoll, allerdings konnte diese lose Form der Verabredung aus unterschiedlichen Gründen nicht immer eingehalten werden.

Zwischenfazit

Mattermost in Forschung, Lehre und Softwareentwicklung birgt großes Potenzial. Am wichtigsten scheint – wie immer bei Prozessen, die einen Kulturwandel bedeuten – Geduld zu haben und nicht zu früh aufzugeben. Gegenüber meinen Kolleg_innen und Studierenden wurde immer deutlich gemacht, dass es darum geht, etwas auszuprobieren und dann gemeinsam zu schauen, ob dabei was Sinnvolles herauskommt. Und dies scheint im Rückblick nicht unwesentlich bei der Einführung der neuen Software zu sein: Alle Beteiligten als gleichberechtigte Mitwirkende in einem Experiment zu behandeln, deren Gewohnheiten, Erwartungen und Bedürfnisse ernst genommen werden müssen, wenn das Projekt gelingen soll.

Referenzen

Hand, J. (2016a). ChatOps Managing Operations in Group Chat. Sebastopol: O’Reilly. Zugriff am 17.12.2016. Verfügbar unter: http://www.oreilly.com/webops-perf/free/files/chatops.pdf

Hand, J. (2016b, Dezember 6). ChatOps Essential Guide: The Basics, Benefits, and Challenges. TechBeacon. Zugriff am 17.12.2016. Verfügbar unter: https://techbeacon.com/chatops-essential-guide-basics-benefits-challenges

Perkel, J. M. (2016). How Scientists Use Slack. Nature, 541 (7635), 123–124.

Dieser Beitrag wurde in der ersten Version vom 03. Oktober 2018 von Axel Dürkop und in der zweiten Version vom 26. März 2020 von Axel Dürkop und Ann-Kathrin Watolla verfasst.

]]>
Forschungsdatenmanagement in BRIDGING https://insights.tuhh.de/de/blog/open-discourses/open-science/2019/05/08/forschungsdatenmanagement-in-bridging/ Wed, 08 May 2019 11:53:46 +0000 https://insights.tuhh.de/?p=19173 Aktuelle Diskurse in der Forschung weisen zunehmend auf das Potenzial offener Forschungsprozesse hin. So kann beobachtet werden, dass offene Forschungspraktiken entlang des gesamten Forschungsprozesses zunehmend an Bedeutung gewinnen. Will man Offenheit jedoch ernsthaft in einem Forschungsprozess berücksichtigen, bedeutet dies, dass Offenheit sich nicht nur im Bereich von Open-Access-Publikationen niederschlägt. Vielmehr geht es darum, die Prinzipien offener Forschung von Beginn an zu berücksichtigen (vgl. Steinhardt 2018). Das Projekt BRIDGING bot die Gelegenheit, genau diese zeitgemäßen Praktiken in der Datenerhebung und Datenverarbeitung aufzugreifen und im Forschungsprozess anzuwenden, wobei in diesem Forschungsprojekt ein qualitatives Forschungsdesign verfolgt wird.

Offenheit von Anfang an

Konkret bedeutet dies, dass sowohl die Datenerhebung, die Datenauswertung und die Datenarchivierung abhängig von den Prinzipien der qualitativen Sozialforschung offen gestaltet werden. Damit einher gehen unterschiedliche technische, aber vor allem auch soziale Anforderungen. Insbesondere in der qualitativen Forschung stehen wir hier vor der Herausforderung, die erhobenen Daten zu anonymisieren und die Interviewpartner_innen davon zu überzeugen, ihr gesprochenes Wort auch offen zugänglich zu machen. Diese Vorbehalte wurden auch schon von anderen Forscher_innen thematisiert (vgl. Fecher, Friesike, und Hebing 2015; Whyte und Pryor 2011).

Doch was bedeutet es nun konkret, Offenheit in einem qualitativen Forschungsprozess zu berücksichtigen und sowohl die Zugänglichkeit der Daten als auch deren Nachnutzung zu gewährleisten?

Lessons learned

Im Rahmen des qualitativen Forschungsprojektes BRIDGING haben wir hierzu einige Erfahrungen gesammelt, die wir in diesem Beitrag gerne weitergeben wollen.

BRIDGING ist als qualitatives Forschungsprojekt angelegt und untersucht den Transfer digitaler Hochschulbildungskonzepte aus Hochschulverbünden in Fachdisziplinen. Die Datengrundlage hierbei sind individuelle leitfadengestützte Interviews. Diese entsprechend des Open Science Ansatzes offen und transparent zugänglich zu machen, zieht einige Implikationen nach sich.

Davon ausgehend hat das Team von BRIDGING schon sehr früh im Projekt (Frühjahr 2018) das Beratungsangebot der Universitätsbibliothek der TU Hamburg (tub.) zum Forschungsdatenmanagement (FDM) wahrgenommen. Im Hinblick auf eine spätere Nachnutzungsmöglichkeit der erhobenen Daten durch andere Forschende wurde mit Hilfe einer Juristin an der tub. eine Einverständniserklärung verfasst, die verschiedene Grade von Offenheit in der Nachnutzung vorsieht. Interviewpartner_innen im Projekt sollten schon vorab darüber aufgeklärt werden, dass die Absicht besteht, ihre Aussagen durch die Zugänglichmachung in einem wiss. Datenrepositorium für Interessierte bereitzustellen.

Als Datenrepositorium wurde für diesen Zweck gesis ins Auge gefasst, das 2018 in der wiss. Community als erster Anlaufpunkt für sozialwissenschaftliche Daten galt. Nach Abschluss der Auswertung einer großen Zahl von Interviews wurde Anfang 2019 der Überstellungsvorgang der Daten an gesis aufgesetzt. Ein Telefonat mit dem Datenrepositorium zum Zweck einer abschließenden Beratung und Validierung des geplanten Vorgehens förderte den Umstand zutage, dass gesis nur noch quantitative Daten aufnehmen würde. Beispiele qualitativer Daten im datorium von gesis, an denen sich das Team BRIDGING orientiert hatte, wurden als Sonderfälle aus den Anfangszeiten des Forschungsdatenzentrums eingeordnet.

Zusammenarbeit und Unterstützung

Diese Aussage forderte dazu auf, einen neuen Ort für die Interviewdaten aus BRIDGING zu suchen. Die Beratung bei gesis hatte das DFG-geförderte Projekt Qualiservice in Bremen empfohlen, das sich auf qualitative sozialwissenschaftliche Daten spezialisiert hat. Eine erste telefonische Kontaktaufnahme mündete unmittelbar in eine sehr positive Beratung und Begleitung des FDM-Prozesses. So konnten in weiteren Telefonaten mit Projektmitarbeiter_innen in Bremen auch forschungsethische und technische Fragen im Umgang mit den Daten geklärt werden. Das Team BRIDGING wurde u.a. in der Absicht bestärkt, von den Interviewpartner_innen eine weitere Einverständniserklärung mit detaillierten Aussagen zu den Rahmenbedingungen des FDM einzuholen, wenn diese einer Zugänglichmachung grundsätzlich zugestimmt hatten.

Dieses Anschreiben wurde in wechselseitiger Abstimmung formuliert, wobei auch viel Wissen und Praxiserfahrung im Umgang mit Forschungsdaten in der Nachnutzung kommuniziert wurden. So wurde bspw. deutlich, dass die Zugänglichmachung von Forschungsdaten bei Qualiservice in Bremen an sehr strikte Bedingungen geknüpft ist. Der Aufwand, der mit der Nachnutzung verbunden ist, schützt die Teilnehmenden von Studien jedoch vor nicht-wissenschaftlichen Zugriffen auf ihre Daten und grenzt sich damit von frei zugänglichen Datenplattformen wie Zenodo ab.

Außerdem konnte festgestellt werden, dass die Kenntnis und Berücksichtigung aller Bedingungen für die Zugänglichmachung von Forschungsdaten zu Beginn einer Erhebung diese beeinflusst hätte. Das bedeutet, wenn ein Ziel in einem Forschungsprojekt die abschließende Zugänglichmachung der Daten ist, kann dieses durch das Design der Erhebung präziser angestrebt werden, wenn alle Bedingungen des FDM vorher bekannt sind und berücksichtigt werden. Allerdings ist das Team BRIDGING zu dem Schluss gekommen, dass sich dieses Ziel auch auf die Formulierung der Interviewfragen und die Atmosphäre des Gesprächs auswirken und ggf. die Aussagen der Teilnehmenden unerwünscht lenken könnte.

Es kann an dieser Stelle des Forschungsprozesses festgestellt werden, dass die Erhebung qualitativer Daten mit einem erheblichen Aufwand für die Nachnutzung verbunden ist. Dieser besteht nicht nur in der besonderen Aufbereitung für die Nachnutzung (Anonymisierung/Pseudonymisierung), sondern auch in der Abstimmung der Transkripte mit den Teilnehmenden der Studie. Dies nimmt Zeit in Anspruch und birgt das Risiko, dass Teilnehmende trotz anfänglicher Zustimmung für die Zugänglichmachung ihrer Aussagen, diese zurückziehen, wenn sie sie schwarz auf weiß vorgelegt bekommen.

Wir befinden uns noch im Forschungsprozess, da das Projekt BRIDGING erfreulicherweise bis Ende 2019 verlängert wurde. Daher können und wollen wir an dieser Stelle weiter berichten.

Literatur

  • Fecher, Benedikt, Sascha Friesike, und Marcel Hebing. 2015. «What Drives Academic Data Sha-ring?». PLoS ONE 10 (2): https://doi.org/10.1371/journal.pone.0118053
  • Steinhardt, Isabel. 2018. «Open Science-Forschung und qualitative Methoden – fünf Ebenen der Reflexion». MedienPädagogik 32, (Oktober), 122–138. https://doi.org /10.21240/mpaed/32/2018.10.28.X.
  • Whyte, Angus, und Graham Pryor. 2011. «Open Science in Practice: Researcher Perspectives and Participation«. IJDC 6 (1): 199–213. https://doi.org/10.2218/ijdc.v6i1.182
]]>
Eine Sicht auf Offenheit beim Forschen und Lernen https://insights.tuhh.de/de/blog/hooutuhh/2019/03/07/eine-sicht-auf-offenheit-beim-forschen-und-lernen/ Thu, 07 Mar 2019 17:00:03 +0000 https://insights.tuhh.de/?p=18926

Die Universitätsbibliothek der TUHH (tub.) führte im Jahr 2018 unter anderem mit Förderung der Hamburg Open Online University (HOOU) das Projekt “Wissenschaftliches Arbeiten öffnen” durch. Im Rahmen eines von der tub. seit mehr als 10 Semestern organisierten Bachelor-Seminars zum Thema „Wissenschaftliches Arbeiten” schrieb die Studentin Anneke Sprengell im Wintersemester 2018/19 den folgenden Text, der mit Erlaubnis der Autorin im Blog der TUHH-Bibliothek zugänglich gemacht wird. Mehr zum Hintergrund der Schreibaufgabe, bei der dieser schöne Text entstanden ist, am Ende dieses Blog-Beitrages.

 

Einzelne Grafiken CC 0, Patrick Hochstenbach https://www.fosteropenscience.eu/trainers-materials

 


Offenheit beim Forschen und Lernen – Ein Geben und Nehmen

von Anneke Sprengell

(Creative Commons Lizenz Namensnennung 4.0 International CC BY)

In dem folgenden Essay geht es um den Begriff „Offenheit” insbesondere beim Forschen und Lernen. Hierbei werde ich meine eigene Vorstellung von diesem Begriff in den Fokus stellen.

Wie bereits dem Titel zu entnehmen ist, ist Offenheit beim wissenschaftlichen Arbeiten für mich ein Geben und Nehmen. Damit meine ich, dass man zum einen beim eigenen Forschen immer offen für andere Ideen sein sollte. Dies bedeutet, dass man sich zum Beispiel mit umfassender Literatur zu dem Thema beschäftigt. Es bringt nichts, sich hier zu versperren und alles selbst heraus finden zu wollen. Dies ist nur wahnsinnig zeit- und kräftezehrend und führt auch nicht zum gewünschten Erfolg. Neben der Literatur sollte man aber auch immer – wenn möglich – mit anderen über die eigene Arbeit reden und diskutieren. Dabei sollte man immer offen für andere Denkanstöße und Herangehensweisen sein.

Außerdem bedeutet Offenheit auch, dass man anderen seine Forschungsergebnisse zur Verfügung stellt. Vor allem, wenn man bedenkt, dass wir in der Wissenschaft keine absolute Gewissheit haben können. Beim wissenschaftlichen Arbeiten und Forschen ist es daher um so wichtiger, dass die eigenen Theorien auch von anderen Wissenschaftlern gehört und geprüft werden. Nur so kann man wissenschaftliche Theorien auch für wahr halten. Dafür ist es eben wichtig, dass andere Wissenschaftler diese Theorie ebenfalls für glaubhaft halten und die Arbeit überzeugend finden. Dies setzt Offenheit voraus. Andererseits bietet dies aber auch anderen die Möglichkeit, von dieser Arbeit zu lernen und dann davon ausgehend weiteres zu erforschen. Denn wir alle profitieren davon, wenn die Forschung weiterkommt.

Für mich persönlich bedeutet Offenheit auch, dass man versucht, seine erarbeiteten Ergebnisse für ein möglichst breites Publikum zugänglich zu machen. Natürlich ist dies nicht immer möglich, es sollte aber angestrebt werden. Ich finde, dass Stephen Hawking hier ein gutes Beispiel ist: Er war ein brillianter Physiker, der höchst komplexe Probleme erforscht hat. Er hat aber zusätzlich auch Bücher veröffentlicht, die es auch Nicht-Physikern ermöglichen an seinen Forschungsprojekten teilzuhaben. Dass die Forschung gegenüber der Gesellschaft offen ist, finde ich auch wichtig, da Forschung meist aus Steuergeldern finanziert wird. Daher schuldet die Wissenschaft der Gesellschaft auch eine gewisse Transparenz.

Im bisherigen Text habe ich mich sehr auf Offenheit im Zusammenhang zum wissenschaftlichen Forschen bezogen. Aber auch beim Lernen ist Offenheit sehr wichtig:

Es hilft immer weiter, wenn man mit anderen über seine Probleme beim Lernen offen redet. So kann man sich zum Beispiel komplizierte Sachverhalte erklären lassen. Dies funktioniert, aber nur, wenn man offen über seine Verständnisprobleme redet. Das mag zwar banal klingen, aber ich habe den Eindruck, dass sich viele Studenten dies teilweise nicht wirklich trauen. Aber auch das Kommunizieren und Diskutieren mit Kommilitonen, wenn keiner von beiden den Sachverhalt ganz verstanden hat, bringt meistens beide voran.

Ich hoffe, dass durch meinen kleinen Essay deutlich geworden ist, dass Offenheit beim Forschen und Lernen sehr vielschichtig ist, aber vor allem das Geben und Nehmen voraussetzt.


Soweit der Text von Anneke Sprengell.

Neben einer Hinführung zu den vielfältigen Aspekten wissenschaftlichen Arbeitens ist es ein weiteres Ziel des HOOU-Projektes “Wissenschaftliches Arbeiten öffnen” und des Bachelor-Seminars zum Thema „Wissenschaftliches Arbeiten”, Offenheit als Tugend wissenschaftlichen Arbeitens zu fördern.

Jedes Seminar startet mit einer kurzen Diskussion zur Frage „Was ist für Sie ein wichtiges Kennzeichen von Wissenschaft?” Zur Vertiefung und Nachbereitung wird eine erste, schriftlich abzuliefernde Hausaufgabe gestellt, wobei zwei kurze Texte verglichen sowie die Gemeinsamkeiten und Auffassungsunterschiede zu den Kennzeichen von Wissenschaft beschrieben werden sollen. Für Studierende der Ingenieurwissenschaften kann diese Hausaufgabe durchaus ein kleiner Schock sein, haben sie doch manchmal extra ein solches Fach gewählt, damit sie nicht schreiben müssen.

Als alternative Hausaufgabe für besonders Kreative wurde im Seminar vom Wintersemester 2018/19 die Aufgabe gestellt, einen Text, etwa ein Essay von bis zu zwei DIN-A4-Seiten zu folgenden Fragen schreiben: „Was bedeutet für Sie Offenheit, insbesondere beim Forschen und Lernen? Ist dies eine Haltung, hat sie was mit Zugang, Transparenz oder Freiheit, mit Bildung, Teilhabe oder Kollaboration zu tun? Welcher Aspekt von Offenheit ist für Sie besonders wichtig? Wählen Sie für Ihren Text selbst eine passende Überschrift. Sie müssen nicht alle der aufgeführten Fragen ‚beantworten’.”

Forschendes Lernen gehört an der TUHH mittlerweile zum Studium in vielen Bereichen dazu. Zum Forschen gehört auch das Schreiben und Publizieren. Letzteres ist ebenfalls für Studierende über das von der TU-Bibliothek gemanagte Open Access Repository TUHH Open Research (TORE) möglich. Beispiele dafür existieren schon.

Dieser Beitrag wurde verfasst von Thomas Hapke und Anneke Sprengell.

Weitere Beiträge

SeaPiaC

SeaPiaC

The aim of the project is to create a digital collaborative learning environment in which students of TUHH and NCKU collaborate on challenges of sustainable nature-based coastal protection in times of a changing climate.

]]>
Telling Stories with Twine & H5P https://insights.tuhh.de/de/blog/veranstaltungen/2019/03/05/telling-stories-with-twine-h5p/ Tue, 05 Mar 2019 09:49:26 +0000 https://insights.tuhh.de/?p=18851

Anlässlich der Open Education Week 2019 widmen wir den Hack[a|er]space diese Woche zwei coolen Tools: Twine und H5P. Während Twine von einer großen Community zum Erzählen interaktiver Geschichten eingesetzt wird, hat sich H5P in den letzten Jahren ein feste Stelle im E-Learning erobert. Wir wollen im Hack[a|er]space herausfinden:

Welches Potenzial haben Twine und H5P, wenn wir sie miteinander kombinieren?

Weiterführende Informationen, Datum und Uhrzeit sind im Community Forum des Hack[a|er]space zu erfahren. Zudem ist die Veranstaltung auf der offiziellen Website der Open Education Week 2019 angekündigt. Aktuelle Informationen sind auf Twitter unter #OEWeek zu finden.

Kommt zahlreich!

]]>
Jupyter Notebook und JupyterLab https://insights.tuhh.de/de/blog/tools/2019/02/21/jupyter-notebook-und-jupyterlab-fuer-open-science/ Thu, 21 Feb 2019 19:36:34 +0000 https://insights.tuhh.de/?p=18795

Die preisgekrönte Software Jupyter Notebook ist in vielen Forschungsbereichen zum Defacto-Standard geworden. Bei der Entwicklung von Algorithmen, der Verarbeitung von Daten und der Zusammenarbeit in offenen Forschungsprozessen spielt die Software ihre Stärken aus. JupyterLab ist die Weiterentwicklung von Jupyter Notebook und bietet vor allem auf der Benutzeroberfläche einige sinnvolle Neuerungen (vgl. Abb. 1).

Abbildung 1: Screenshot JupyterLab. Quelle: https://jupyterlab.readthedocs.io/en/latest/

Loslegen mit Jupyter

Die klassische Arbeit in Jupyter Notebooks beginnt mit dem Import von Daten. Mit zahlreichen Skript- und Programmiersprachen können diese aufbereitet, analysiert und visualisiert werden. Unter den verfügbaren Kerneln befindet sich auch eins für Matlab, das in den Ingenieurwissenschaften nach wie vor stark verbreitet ist.

Da Jupyter Notebook mit so genannten Zellen arbeitet, können sich Codezellen und Textzellen abwechseln. Code wird direkt in den Zellen ausgeführt, Texte werden in Markdown verfasst. Dadurch können Hypothesen und Annahmen über die Daten formuliert und anschließend mithilfe von Code direkt überprüft werden. Die folgende Zelle hält dann die Beobachtung und Interpretation fest. So entstehen reproduzierbare Forschungstagebücher und im fortgeschrittenen Stadium publikationsreife Artikel. Abb. 2 zeigt an einem einfachen Beispiel die Verzahnung von Text und Code.

Abbildung 2: Screenshot eines Jupyter Notebooks, das die Kombination von Code- und Textzellen zeigt. Quelle: eigene Darstellung

Was Burger und Notebooks gemeinsam haben

Die Jupytertools haben deshalb in vielen verschiedenen Domänen einen bedeutenden Stellenwert erlangt, weil sie den klassischen wissenschaftlichen Workflow so komprimiert abbilden wie ein Burger ein Dreigängemenü:

  • Salat und Brot als Vorspeise
  • Fleisch im Hauptgang und
  • Käse zum Abschluss

Für Jupyter Notebook heißt das:

  • Analysieren und erkennen
  • Schreiben
  • Publizieren

Wie auch der Hamburger die Abfolge der drei Gänge zeitlich und räumlich in sich vereint, finden auch in einem Notebook die drei Schritte des wissenschaftlichen Arbeitens zeitgleich und iterativ statt: Während ich forsche, schreibe ich auf, was ich beobachte, forsche mit neuen Erkenntnissen weiter, schreibe und schreibe und veröffentliche im besten Sinne von Open Science schon während des Forschungsprozesses meine Mitschriften und Daten.

Mein Forschungsergebnis veröffentliche ich dann am besten in einem Open-Access-Journal und zitiere darin den Digital Object Identifier (DOI), unter dem meine Notebooks zu finden sind. Den DOI habe ich von Zenodo bekommen, als ich dem Dienst einen Link zu meinem GitHub-Repo mit meinen Jupyter Notebooks gezeigt habe.1 Der Journalartikel zusammen mit meinen Notebooks und Daten machen mein Forschungsergebnis und das Vorgehen transparent und nachvollziehbar.

Um es anderen Wissenschaftler_innen noch einfacher zu machen, nutze ich Tools wie binder, die es erlauben, Notebooks aus dem Git[Hub|Lab]-Repo direkt im Browser interaktiv nachzuvollziehen, um damit die Ergebnisse aus der Publikation zu reproduzieren und zu prüfen. Abb. 3 visualisiert diesen möglichen Workflow exemplarisch.

Abbildung 3: Exemplarischer Publikationsworkflow mit Jupyter Notebook. Quelle: eigene Darstellung

Über den folgenden Button

 

kann das Beispiel aus Abb. 2 direkt im Browser nachvollzogen werden. In der sich öffnenden Ansicht ist die Datei jupyter-beispiel.ipynb anzuklicken. Anschließend können die Zellen geändert und mit STRG+ENTER erneut ausgeführt werden.

Abbildung 4: Darstellung der Dateien in Jupyter Notebook

Jupyter Notebook und JupyterLab laufen auf allen relevanten Betriebssystemen als Browsertool und können bspw. mithilfe von Anaconda auf dem eigenen Rechner installiert werden. Über eine serverseitige Installation von JupyterHub sind auch kollaborative Arbeiten an Daten- und Forschungsprojekten möglich.

Jupyter-Notebook-Installationen sind einfach über Plugins zu erweitern. So können z.B. mit RISE Präsentationen direkt aus Notebooks erstellt werden. Jede Zelle kann dabei zu einer eigenen Folie werden, in der der Code bei einer Präsentation live ausgeführt werden kann!

Jupyter an der TUHH

Die TUHH verfügt seit 2018 über einen JupyterHub, der im WiSe 2018/19 erstmals auch für elektronische Prüfungen eingesetzt wird. Zuvor hatten die Studierenden ein Semester lang eine handlungsorientierte Einführung in Machine-Learning-Grundlagen mit Python, wobei Jupyter Notebooks das zentrale Tool waren. Wir werden in diesem Blog noch ausführlich darüber berichten.

Weiterführende Links


  1. Die Vergabe von DOIs ist derzeit nur für GitHub-Repositories möglich. Repos im GitLab der TUHH können jedoch einfach zu GitHub gespiegelt werden. Mehr dazu im Blog der TU Bibliothek↩

Dieser Beitrag wurde verfasst von Axel Dürkop. Er erschien zuerst im Workshopskript “Kollaborieren in Forschung und Lehre” und würde für diesen Beitrag noch einmal überarbeitet. Teaserbild “Vpython in Jupyter Notebook” von thekirbster, CC-BY 2.0

Weitere Beiträge

SeaPiaC

SeaPiaC

The aim of the project is to create a digital collaborative learning environment in which students of TUHH and NCKU collaborate on challenges of sustainable nature-based coastal protection in times of a changing climate.

]]>
Erfolgreicher Start von “Open Your MINT” in der Zentralbibliothek https://insights.tuhh.de/de/blog/projekte/2019/02/07/tekethics-und-scifivisions-in-der-zentralbibliothek/ Thu, 07 Feb 2019 16:00:57 +0000 https://insights.tuhh.de/?p=18717

Seit dem vergangenen Herbst kooperiert die Hamburg Open Online University (HOOU) mit den Bücherhallen Hamburg. In der Reihe “Open Your MINT – Gestalte deine digitale Zukunft!” finden im ersten Halbjahr 2019 verschiedene Workshops zu aktuellen HOOU-Projekten statt. Veranstaltungsort ist immer die Zentralbibliothek am Hühnerposten. Den Start in die Reihe machten wir am vergangenen Samstag, dem 02. Februar 2019, mit den Projekten tekethics (TUHH) und SciFiVisions (HCU/TUHH).

 

tekethics – Philosophische Annäherungen an aktuelle technische Entwicklungen

Blockchain, Big Data, Internet of Things, Virtual Reality, Augmented Reality, Robotik und Biotechnologie fordern Gesellschaften weltweit heraus, das technisch Machbare mit ihren Normen und Werten zu vereinbaren. Einfache Antworten sind rar, eine Frage zieht eine weitere nach sich und viele Technologien sind miteinander verbunden, was die Angelegenheit nochmals komplexer macht. Darüber hinaus wirken viele Technologien in ganz unterschiedliche Lebensbereiche hinein und irritieren unsere Traditionen und Gewohnheiten im Straßenverkehr, der Arbeitswelt, dem Gesundheitssystem, dem Wohnbereich, der Privatsphäre und der Sexualität (vgl. z.B. Specht, 2018).

Wie wirken sich intime Beziehungen zu Maschinen auf Mitmenschen aus?
Wer ist verantwortlich, wenn Maschinen bei der Arbeit Unfälle
verursachen?
Welche Verpflichtungen haben wir gegenüber künftigen Generationen und der Umwelt?
Verlieren Aspekte des Lebens an Bedeutung, wenn der Tod nicht mehr das Ende ist?

Das interessierte Publikum der Veranstaltung kam anhand dieser und anderer Fragen ins Gespräch miteinander und gründete am Ende der Veranstaltung einen Stammtisch, der sich regelmäßig mit Fragen im Spannungsfeld von Technik und Ethik beschäftigen möchte. Wir werden berichten, wenn dieser getagt hat.

SciFiVisions

In der zweiten Veranstaltung des Tages haben wir ähnliche Themen aufgegriffen, wie im tekethics Workshop, diese allerdings durch die kulturell-kreative Linse neu betrachtet. Ausgehend von unserem Verständnis, das Science Fiction (SF) eine Betrachtung möglicher Zukunft mit einem Fokus auf technologische Innovationen ist, haben wir die Diskussion damit gestartet, Zukunftsvisionen im SF-Film zu betrachten und verschiedene Szenarien danach abzuklopfen, wo wir bereits sind. Was vom Gezeigtem ist eigentlich als Imagination und was als direkte Fortführung des Ist-Zustands zu verstehen.

Wenn Wall-E über eine zugemüllte Erde düst, dann ist das in Anbetracht des Great Pacific Garbage Patch oder der riesigen Elektroschrottberge in Afrika keineswegs mehr eine ferne Zukunft. In der Diskussion ging es dann neben der Umweltverschmutzung (etwa in Wall-E – Der letzte räumt die Erde auf) auch um die Erderwärmung und die Flucht globaler Eliten in ihre Gated Communities oder, wie im Film Elysium, gar in den Weltraum. Ungleichheit und Ungerechtigkeit waren hier Stichworte, die auch eine Verbindung zur Robotik, der Automatisierung und dem Status von Arbeit (u.a. in Blade Runner und dem Kurzfilm Robots of Brixton) ermöglichten. Und schließlich haben wir uns über die ganz konkreten Lebenserfahrungen im Umgang mit sozialen Medien, der Abhängigkeit von Technologien für den Alltag und den Beziehungen im digitalen Zeitalter beschäftigt (u.a. im Film Her, der TV-Serie Black Mirror und dem Kurzfilm Strange Beasts).

Fortsetzung folgt

Wir beurteilen den Auftakt zu “Open Your MINT” positiv und freuen uns, dass auch das Veranstaltungsmanagement der Bücherhallen zufrieden war. Wir haben aber auch gelernt, dass die Diskussion über ethische Fragen aktueller Technologien, wie auch über deren kulturelle Darstellung, sehr voraussetzungsreich ist. Einige Teilnehmende äußerten, dass sie sich im tekethics Workshop zum ersten Mal mit den “Buzzwords” der Digitalisierung intensiv auseinandergesetzt hatten. Und im SciFiVisions Workshop fiel auf, dass die mitgebrachten Beispiele einem großen Teil des Publikums nicht präsent waren. Die HOOU-Projektleiter Axel (tekethics) und Lars (SciFiVisions) sind sich einig, dass in Zukunft die intensive Beschäftigung mit ein bis zwei technologischen Trends pro Workshop gut wäre und die Veranstaltungen dafür häufiger stattfinden könnten. Auch eine inhaltliche Vermischung, die Diskussion der ethischen Themen mit Beispielen aus der SF ist für uns denkbar. Die Bücherhallen haben sich in dieser Hinsicht für neue Ideen und Konzepte sehr offen gezeigt.

Lesetisch “tekethics” bei “Open Your MINT” in der Zentralbibliothek. Quelle: Axel Dürkop (CC-BY-SA)

Material zur Veranstaltung

tekethics

Weiterführende Links und ein OER-Booklet zum Lernarrangement tekethics sind auf der Homepage des Projekts zu finden.

Specht, P. (2018). Die 50 wichtigsten Themen der Digitalisierung: künstliche Intelligenz, Blockchain, Bitcoin, Virtual Reality und vieles mehr verständlich erklärt (3. Auflage). München: REDLINE Verlag.

SciFiVisions

Weiterführende Links und ein OER-Booklet zum Lernarrangement SciFiVisions sind auf der Homepage des Projekts zu finden.

Dieser Beitrag wurde verfasst von Axel Dürkop und Lars Schmeink.

Weitere Beiträge

SeaPiaC

SeaPiaC

The aim of the project is to create a digital collaborative learning environment in which students of TUHH and NCKU collaborate on challenges of sustainable nature-based coastal protection in times of a changing climate.

]]>
openTUHH: Policy für Offenheit in Forschung und Lehre https://insights.tuhh.de/de/blog/autor_innen/opentuhh/2018/11/21/opentuhh-policy-fuer-offenheit-in-forschung-und-lehre/ Wed, 21 Nov 2018 20:26:53 +0000 https://insights.tuhh.de/?p=18344 Mit Beschluss des Akademischen Senats der TUHH ist am 26. September 2018 die Policy für Offenheit in Forschung und Lehre in Kraft getreten. Nachdem sich die Hochschule zuvor schon zu Open Access und Open Science bekannt hatte, ermutigt sie nun alle TUHH-Angehörigen auch zu Einsatz und Entwicklung von Open Educational Resources (OER) und Open-Source-Software.

Die TUHH empfiehlt vor dem Einsatz proprietärer und kostenpflichtiger Software die gründliche Evaluation von freien und quelloffenen Lösungen, um Abhängigkeiten und Kosten zu reduzieren. […] Wo möglich und sinnvoll wird empfohlen, TUHH-eigene Plattformen zu nutzen, um entwickelte Software für die Nachnutzung und weiterführende Entwicklung bereitzustellen und zudem die Sichtbarkeit von Forschung und Lehre in der Öffentlichkeit zu erhöhen. (aus der Policy, Abs. 13f.)

Die Angehörigen der TUHH werden ausdrücklich ermutigt und darin unterstützt, ihre wissenschaftlichen Erkenntnisse aus Forschung und Lehre offen zur Verfügung zu stellen und neue Formen offener Zusammenarbeit für sich zu erproben. (aus der Policy, Abs. 17)

Die Policy für Offenheit in Forschung und Lehre ist ein erstes Ergebnis des Teams openTUHH, das sich aus den Vizepräsidenten für Forschung und Lehre, Prof. Dr. Andreas Timm-Giel und Prof. Dr. Sönke Knutzen, aus dem Leiter und Mitarbeitern des Rechenzentrums, Manfred Schößler und Andreas Böttger, aus der Leiterin und den Mitarbeiter_innen der TU Bibliothek Inken Feldsien-Sudhaus, Beate Rajski, Thomas Hapke, Heiko Weier, sowie den Mitarbeiter_innen des Instituts für Technische Bildung und Hochschuldidaktik, Axel Dürkop und Dr. Tina Ladwig, zusammensetzt.

Das Team openTUHH
]]>
Docker: digitale Lernumgebungen mit einem Klick https://insights.tuhh.de/de/blog/tools/2018/11/08/docker-digitale-lernumgebungen-mit-einem-klick/ Thu, 08 Nov 2018 15:35:39 +0000 https://insights.tuhh.de/?p=14563

Docker ist eine moderne Form, Softwareanwendungen in virtuellen Containern auszuführen. Die Vorteile dieser Technik sind so zahlreich, dass Docker die IT-Welt im Sturm erobert hat (vgl. Vaughan-Nichols, 2018) und seit 2016 auch die TUHH.

Die Geschichte von Docker an der TUHH beginnt mit der Hamburg Open Online University (HOOU). Mittelfristiges Ziel des Großprojektes war es 2016, eine Lernplattform zu entwickeln, auf der die Lernarrangements der sechs staatlichen Hochschulen Hamburgs zum Mitmachen bereitgestellt werden sollten. Bis zur Fertigstellung der Plattform war jede Hochschule aufgefordert, die Ideen der Lehrenden “mit Bordmitteln” umzusetzen, mit vorhandenen Tools und aus der bisherigen Erfahrung mit E-Learning-Angeboten heraus. Die TUHH hat diesen Moment genutzt, um in ihrem wachsenden digitalen Experimentierfeld einige neue Technologien und Praktiken zu erproben und in den Kontext von Forschung und Lehre zu transferieren.

Die Motivation, Docker zu nutzen, entsprang zunächst einer praktischen Analyse der Software Sandstorm. Diese einzusetzen erschien aus zweierlei Gründen als technische Basis für die HOOU an der TUHH sinnvoll:

  • Sandstorm ist freie Software und kann in Hochschulrechenzentren installiert werden.
  • Sandstorm virtualisiert die verschiedenen Applikationen intern, erfordert also keinen dedizierten Rechner pro Anwendung.
  • Sandstorm integriert eine Vielzahl von so genannten Web-2.0-Tools, die Anwender_innen unter einer einzigen Anmeldung zusammenziehen können.

Gerade aus dem dritten Grund schien Sandstorm bestens geeignet, die Grundlage für individuelle webgestützte Lernarrangements zu stellen. An der TUHH setzten wir Sandstorm in einer Entwicklungsumgebung auf und teilten unsere gewonnenen Erfahrungen mit den Kolleg_innen aus dem HOOU-Team. Begrüßt wurde die Übersicht der verschiedenen Typen von Anwendungen, die es als freie und quelloffene Software gab. Das Potenzial wurde auch darin gesehen, dass der App Market von Sandstorm und die einfache Inbetriebnahme der Applikationen vielen Lehrenden helfen würde, neue Anwendungen und Anwendungstypen kennenzulernen und auf neue und individuelle Ideen für ihre Lernarrangements zu kommen (vgl. Abb. 1).

Abb. 1: Eine Auswahl von Apps in Sandstorm. Quelle: Übersichtsansicht auf dem App Market von Sandstorm

Aus der Perspektive der Administration und Wartung allerdings erschien uns Sandstorm zu sehr als Blackbox, deren Innenleben wir nicht wirklich kontrollieren konnten. Auch war das technische Konzept der “Verpackung” von Anwendungen für Sandstorm, die Virtualisierung über Vagrant, zu umständlich, um die Entwicklungsgeschwindigkeit und Anpassbarkeit zu erreichen, die uns vorschwebte. Zudem war nicht klar, ob das Geschäftsmodell von Sandstorm langfristig tragen würde (vgl. Abschnitt “Chancen und Herausforderungen von Docker”). Sandstorm hatte uns inspiriert, aber nicht zufriedengestellt.

Schnelle Experimente, die nichts kosten: Auftritt Docker

Was wir an Sandstorm sehr mochten, war die Möglichkeit, Lehrenden beliebte Apps für jeden Zweck quasi per Knopfdruck zur Verfügung zu stellen bzw. wenig Aufwand treiben zu müssen, um ihnen ihre Wünsche zu erfüllen. Wir wollten auch den Aspekt bewahren, dass sich Einsteiger_innen in der webgestützten Lehre über mögliche Applikationen durch praktische Erfahrungen informieren können.

Uns war bekannt, dass Docker weltweit einen fulminanten Siegeszug angetreten hatte, weil es schlanke und schnelle Virtualisierungen ermöglichte. Bauanleitungen für Softwareanwendungen und Dienste lassen sich mit Docker in einer einzigen Datei, dem Dockerfile, festhalten. Aus dem Dockerfile wird dann ein Image erstellt, durch das beliebig viele Container gestartet werden können, in der die verpackte Anwendung läuft. In einer weiteren Datei docker-compose.yml lässt sich definieren, wie notwendige Dienste einer Anwendung miteinander kombiniert und konfiguriert werden können (vgl. Öggl & Kofler, 2018 sowie die Docker-Homepage).

Allerdings ist es zunächst gar nicht notwendig, sich mit diesen tiefergehenden technischen Themen auseinanderzusetzen. Auf dem Docker Hub liegen zahlreiche Images zum freien Ausprobieren vor, von denen in der Regel mit einem Befehl wie

docker run --name tuhh-wordpress --link tuhh-mysql:mysql -d wordpress

ein Container gestartet werden kann.

Mit Docker wird die Zugangsbarriere zu komplexen Anwendungen, Diensten und Systemen noch weiter gesenkt, denn auf dem Docker Hub liegen zahlreiche Images zum freien Ausprobieren vor. Die Bequemlichkeit, mit einem Klick eine solche Anwendung zu starten, wird damit jedoch noch nicht erreicht. Dieses Ziel vor Augen, probierten wir weitere Einsatzmöglichkeiten von Docker in Forschung und Lehre aus.

Docker in der Entwicklung freier Bildungsmaterialien (OER)

Im Zentrum der HOOU steht der Diskurs um die Zugänglichkeit von Bildungsmaterialien, an dem sich die TUHH von Beginn an mit technischen Experimenten beteiligt hat (vgl. Dürkop, 2016). In dem Konzept von Markdown, statischen Websitegeneratoren und GitLab kam Docker anfangs noch gar nicht vor. Wir fanden aber schnell heraus, dass das integrative Konzept von GitLab die Einbindung von Docker Images in Pipelines zuließ. Damit konnten wir so ziemlich jedes digitale (Bildungs)artefakt online bauen! Wie diese Art, Bildungsmaterialien zu entwickeln, auch im Team stattfinden kann, wird in diesem Blog und in Dürkop & Ladwig (2018) beschrieben.

Docker in der Softwareentwicklung

Da Docker eigentlich aus der Softwareentwicklung kommt, fanden wir es angezeigt, hier auch zu probieren, was möglich ist. Das HOOU-Projekt Hop-on nahmen wir zum Anlass, um noch einen Schritt weiterzugehen. Als Softwarebasis verwendeten wir das Python Webframework Django und bauten eine ensprechende Pipeline in GitLab, an deren Ende stets eine lauffähige Webanwendung stand. Darüber hinausgehend experimentierten wir mit dem Feature Review Apps in GitLab. Damit ist es möglich, von jedem Entwicklungszweig (branch) im Projekt eine eigene Vorschau zu erzeugen. Das Potenzial dieser Funktion ist enorm: Beiträge, ob bei Texten oder Software, können in großen und kleinen Entwicklungsschritten begutachtet werden, bevor sie in den produktiven Zweig aufgenommen werden. Damit ergeben sich im Kontext des wissenschaftlichen Schreibens Möglichkeiten des Peer Reviews. In der Softwareentwicklung können Entwickler_innen und Endanwender_innen überprüfen, ob entwickelt wurde, was sie sich vorgestellt hatten, und direkt aus dem provisorischen Artefakt lernen. Review Apps verhalten sich zum Quellcode wie Musik zur Notenschrift: Ob eine Komposition gelungen ist, lässt sich besser durch das Hören der Noten überprüfen als durch deren Lektüre.

Docker in der Forschung

Docker spielt aber nicht nur in der Lehre seine Stärken aus, sondern kann auch in der Forschung Potenziale entfalten. So zeigt der Tweet in Abb. 2, wie sich Forschungsdaten und komplexe Anwendungen in einem Docker-Image bündeln lassen.

Abb. 2: Kommando zum selbständigen Explorieren der Panama Papers bei Twitter. Quelle: https://twitter.com/altfatterz/status/778981775796305920

Mit der Eingabe von docker run -p 7474:7474 ryguyrg/neo4j-panama-papers werden die Daten des International Consortium of Investigative Journalists heruntergeladen und in einer neo4j-Graphdatenbank zum selbständigen Explorieren bereitgestellt (vgl. Abb. 3).

 

Abb. 3: Browserinterface von neo4j. Quelle: Screenshot der Anwendung

Docker kann also helfen, Daten, die eine hohe gesellschaftliche Relevanz haben, zusammen mit den Werkzeugen, die zu deren Verständnis notwendig sind, zugänglich und transparent zu machen. Im Sinne von Open Science, wie wir sie an der TUHH verstehen, können mit Docker Forschungsergebnisse samt Anwendung verteilt und so nachvollziehbar und reproduzierbar gemacht werden.

Chancen und Herausforderungen von Docker

Docker hat sich an der TUHH bewährt. Die Virtualisierungslösung erlaubt es, hoch automatisiert und kosteneffizient Anwendungen für Forschung und Lehre zu verpacken und sowohl experimentell als auch produktiv zu betreiben. Dabei sehen wir im Kern folgende Vorteile:

  • Bauanleitungen für Docker (Dockerfile, docker-compose.yml) sind versionierbar und im Sinne von “Rezepten” teil- und tauschbar, z.B. wenn sie in GitLab veröffentlicht werden.
  • Anwendungen, die im Lehr- und Forschungsbetrieb oft als dedizierte Instanz gebraucht werden, können mit allen notwendigen und sinnvollen Konfigurationen in einem Image verpackt werden. Ein prominentes Beispiel ist WordPress, das häufig für das Lernmanagement eingesetzt wird oder als Portfoliolösung dient (vgl. z.B. van den Berk & Tan, 2013).
  • Durch Befehle wie docker-compose up können komplexe Anwendungen auch von weniger IT-affinen Menschen gestartet und verwendet werden.
  • Docker Container können flexibel in automatisierte Entwicklungsprozesse von OER und Software eingebunden werden.
  • In der Forschung können Daten zusammen mit Anwendungen verpackt und verteilt werden, vgl. das Beispiel der Panama Papers.
  • Viele Anwendungen, die in der webgestützten Lehre Sinn machen, liegen zum Experimentieren auf dem Docker Hub.

Eine Herausforderung stellt nach wie vor die konzeptionelle Komplexität von Docker dar. Wenn ein Container nicht gleich hochfährt, ist ein tieferes Verständnis der technischen Hintergründe nötig, um hier mögliche Fehler zu beheben. Im produktiven Betrieb von Docker, vor allem im Zusammenspiel mit GitLab, haben wir in der Anfangszeit viel über Speicher- und Resourcenbedarfe gelernt.

Ausblick

Unsere Begeisterung für Docker an der TUHH hält an, obwohl wir ein Ziel noch nicht erreicht haben: digitale Lernumgebungen per Klick bereitstellen zu können. Hier evaluiert das Rechenzentrum gerade verschiedene freie und quelloffene Produkte wie Rancher und Portainer, um herauszufinden, ob die Administration von technischen Lernumgebungen auf Dockerbasis auch in den Händen von Lehrenden liegen kann.

Das wir Sandstorm damals nicht weiter verfolgt haben, bereuen wir nicht. Ein aktueller Beitrag im Projektblog deutet darauf hin, dass das Geschäftsmodell des crowdgefundeten Produkts nicht nachhaltig ist. Aus diesem Grund sehen wir uns in dem Ansatz bestärkt, Dienste für die webgestützte Lehre und Forschung modular aus handhabbaren Einzelteilen zusammenzubauen. Die Flexibilität, die wir dadurch gewinnen, hat sich in vergangenen Projekten als Vorteil erwiesen.

Referenzen

van den Berk, I. & Tan, W.-H. (2013). Das wissenschaftlich-akademische E-Portfolio in der Studieneingangsphase (Medien in der Wissenschaft). In C. Bremer & D. Krömker (Hrsg.), E-Learning zwischen Vision und Alltag (Band 64, S. 219–229). Münster.

Dürkop, A. (2016, April 28). Entwicklung einer offenen technischen Infrastruktur für HOOU-Lernarrangements an der TUHH. Hamburg Open Online University. Projektblog. Zugriff am 16.6.2018. Verfügbar unter: https://doi.org/10.15480/882.1649

Dürkop, A. & Ladwig, T. (2018). Kollaborativ schreiben mit GitLab. In Markdown & Pandoc (2. Auflage, S. 196–205). Graz: ebooks.kofler.

Öggl, B. & Kofler, M. (2018). Docker: das Praxisbuch für Entwickler und DevOps-Teams (Rheinwerk Computing). Bonn: Rheinwerk Verlag.

Vaughan-Nichols, S. J. (2018, März 21). What is Docker and why is it so darn popular? ZDNet. Zugriff am 5.11.2018. Verfügbar unter: https://www.zdnet.com/article/what-is-docker-and-why-is-it-so-darn-popular/

Dieser Beitrag wurde verfasst von Axel Dürkop, Andreas Böttger und Tina Ladwig.

]]>
GitLab: kollaborativ und interdisziplinär die digitale Zukunft gestalten https://insights.tuhh.de/de/blog/tools/2018/11/04/kollaborativ-und-interdisziplinaer-die-digitale-zukunft-gestalten/ Sun, 04 Nov 2018 00:27:05 +0000 https://insights.tuhh.de/?p=14556

Der Einfluss von Software auf unsere Lebens- und Arbeitswelt wird immer deutlicher wahrnehmbar und verstärkt sich zusehends. So besteht bspw. das Internet, wie wir es heute in Form des World Wide Web hauptsächlich verwenden, nicht mehr nur aus statischen Webseiten, sondern aus komplexen Applikationen wie Shops oder sozialen Netzwerken. Auf unseren Mobiltelefonen befinden sich Apps, mit denen wir ständig interagieren und Daten austauschen, technische Geräte wie Waschmaschinen, Autos, Fahrkartenautomaten und Fernseher funktionieren nicht mehr ohne Software.

Software entsteht in interdisziplinärer Teamarbeit

U.a. aus diesem Grund ist eine oft gehörte Forderung dieser Tage, dass Menschen früh das Programmieren lernen sollten, um später in der Arbeitswelt bestehen zu können und besser zu verstehen, wie die Welt um uns herum funktioniert. Auch wenn diese Forderung vielleicht berechtigt ist und Grundkenntnisse der Softwareentwicklung in digitalen Zeiten nicht schaden können, liegt der eigentliche Kern der Sache woanders: Moderne Softwareanwendungen bestehen nicht nur aus dem Quellcode, der sie antreibt. Sie enthalten Informationen in Form von (bewegten) Bildern, Tönen, Texten und Daten, die erstellt und in die Anwendung integriert werden müssen. Häufig müssen die Anwendungen auch noch in zahlreiche weitere Sprachen übersetzt werden. Diese Aufgaben verteilen sich im Entwicklungsprozess von Software in der Regel auf ganz unterschiedliche Personen, Berufe und Professionen, und am Ende kommt ein multimediales digitales Produkt heraus, das durch Programmcode zusammengehalten wird und seine interne Logik und Funktionsweise erhält.

Was in diesem Sinne für Software gilt, ist auch auf digitale Medien allgemein übertragbar. Bücher sind heute zunächst immer digital vorhanden, auch wenn sie in einem letzten Schritt auf Papier gedruckt werden. Lehr-/Lernmaterialien in Form von PDF-Dokumenten, Webseiten oder Infografiken entstehen in der Regel durch Viele, die gemeinsam an einem Produkt arbeiten und ihren professionellen Teil dazu beitragen. Für eine technische Hochschule ist es daher nicht nur wichtig, das Programmieren zu lehren. Es ist heute ebenso wichtig, mit den Tools und Workflows vertraut zu machen, die Kollaboration und Teamarbeit an digitalen Artefakten erst ermöglichen. Software – und damit auch die Welt, in der wir in Zukunft leben werden – entsteht in interdisziplinärer Teamarbeit.

Daher sei an dieser Stelle die These gewagt, dass nicht jede und jeder unbedingt programmieren können muss. Wichtiger ist die Kenntnis von Kollaborationstools und -workflows, da sie auch nichtprogrammierende Menschen in die Lage versetzt, die digitale Zukunft mitzugestalten und sich aus seiner Profession heraus an digitalen Projekten beteiligen zu können. An der TUHH ebnen wir mit einer hauseigenen weltöffentlichen GitLab-Instanz dieser Kompetenzförderung den Weg.

Von der Open-Source-Bewegung lernen

GitLab ist eine Software zur dezentralen Zusammenarbeit an textbasierten digitalen Artefakten. Das bedeutet, dass Menschen weltweit verteilt, aber dennoch gemeinsam an Software, Webseiten, Texten und Datensammlungen arbeiten können. Sie müssen sich dazu nicht einmal persönlich kennen oder sehen und können doch Großes vereint zustande bringen. Diese Form der Kollaboration ist aus der Open-Source-Bewegung entstanden und erhielt 2005 neuen Schwung durch die Veröffentlichung von Git, einem Tool zur Verwaltung von Zwischenständen im Entwicklungsprozess von Software. Zu dieser Zeit war der Kollaborationsaspekt von Git noch nicht sehr ausgereift. Als 2008 das amerikanische Unternehmen GitHub mit seiner gleichnamigen Webplattform zum gemeinsamen Arbeiten an Code auf den Markt trat, veränderte sich die Entwicklungskultur der Open-Source-Gemeinschaft entscheidend: Durch den Mechanismus des Forkens ist es nicht mehr wie zuvor nötig, das Vertrauen einer Projektcommunity zu gewinnen, um Code beisteuern zu dürfen. Man fertigt nun online eine Kopie des Quellcodes an, verbessert ihn und stellt dann einen pull request an die Urheber_innen, mit dem diese aufgefordert werden, den Beitrag zu integrieren. Diesem Feature der Plattform ist es zuzuschreiben, dass sich die Entwicklung großer und kleiner Softwareprojekte im Open-Source-Umfeld rasant beschleunigte.

Die TUHH hostet eine eigene GitLab-Instanz

Für eine Hochschule stellt sich die Frage, ob die systematische Förderung von Kollaboration und Teamarbeit auf der proprietären Plattform GitHub im amerikanischen Rechtsraum strategisch klug ist. Rechtliche Aspekte in verschiedener Hinsicht sowie die Abhängigkeit von sich wandelnden Geschäftsmodellen im Startup-Sektor legen nahe, Alternativen im Bereich freier und quelloffener Software zu suchen. Aus diesen Gründen hat sich die TUHH entschieden, Kollaboration und Teamarbeit im skizzierten Sinne mit GitLab zu betreiben und aktiv zu fördern.

Seit dem 17. November 2016 hostet das Rechenzentrum der TUHH eine eigene GitLab-Instanz in der Community Edition. Der Prozess bis dahin ist eng verwoben mit dem HOOU-Projekt an der TUHH, in dem wir mit GitLab die ganzheitliche Entwicklung von Open Educational Resources (OER) implementiert haben. Am Prozess der Einrichtung und Bereitstellung des Dienstes waren und sind viele Akteur_innen der TUHH beteiligt, die gemeinsam daran arbeiteten, den Dienst weltöffentlich für alle Interessierten online zu stellen. Nichts Geringeres als interdisziplinäre und internationale Forschungs- und Lehrkooperationen sind das Ziel des öffentlichen GitLabs der TUHH. GitLab ist für viele Institute der Hochschule zu einem zentralen Werkzeug der Zusammenarbeit geworden, wir zählen bis heute über 1000 registrierte Nutzer_innen und entwickeln fortlaufend neue Ideen zum Einsatz in Forschung, Lehre und Projektmanagement.

Der Prozess bringt Akteur_innen näher zusammen

Darüber hinausgehend hat der Prozess der Einrichtung von GitLab viele Angehörige der TUHH in der Diskussion über die Digitalisierungsstrategie der Hochschule näher zusammengebracht. U.a. wurde die Arbeitsgruppe openTUHH gegründet, in der sich die Diskurse Open Education, Open Science und Open Access bündeln. Sie werden von verschiedenen Instituten, der TUHH-Bibliothek, dem Rechenzentrum und dem Präsidium verfolgt und gestaltet. Die Zusammenarbeit mit dem Datenschutzbeauftragten der TUHH hat dazu geführt, den Dienst von Anfang an sicher im Angebot der Hochschule zu verankern und alle Akteur_innen für die Anforderungen an Sicherheit, Datenschutz und verschiedene rechtliche Aspekte zu sensibilisieren. Schließlich hat sich eine monatliche Arbeitsgruppe zu GitLab herausgebildet, in der die Wünsche und Anforderungen der Nutzer_innen reflektiert werden, um die Nutzungsmöglichkeiten entsprechend anzupassen.

Zusammenfassung

Zu diesem Zeitpunkt können wir festhalten, dass GitLab mit seinen vielen technischen Möglichkeiten zahlreiche Nutzer_innen an der TUHH begeistert. Zudem zeigt der Prozess der Einrichtung und Bereitstellung, welche positiven Effekte sich auf verschiedenen Ebenen innerhalb der eigenen Hochschule ergeben können. In den zahlreichen Projekten, die wir bisher mit GitLab durchgeführt haben, haben sich Menschen mit unterschiedlichen Hintergründen, Erfahrungen und Kenntnissen produktive Teams gebildet, die gemeinsam freie Software und offene Bildungsressourcen entwickeln können.

Weitere Artikel zum Thema in diesem Blog

GitLab kam bisher in einer Reihe verschiedener Projekte zum Einsatz, die in den folgenden Beiträgen weiter ausgeführt werden:

Dieser Beitrag wurde verfasst von Axel Dürkop.

]]>
open[learning]spaces https://insights.tuhh.de/de/blog/project/open-learning-spaces/ Thu, 25 Oct 2018 15:00:17 +0000 https://insights.tuhh.de/?post_type=project&p=16854

Wie alles begann

Unsere aktive Mitgestaltung der Hamburg Open Online University (HOOU) in den vergangenen vier Jahren hat es erfordert, die Aktivitäten nationaler und internationaler Hochschulakteure zu beobachten und zu analysieren, um Inspiration und Best-Practice-Beispiele für das eigenen Handeln zu erlangen. Die gewonnen Erkenntnisse haben wir in den Aufbau eines technischen Experimentierfeldes an der TU Hamburg fließen lassen, in dem wir Lehr-Lernangebote im Open-Education-Ansatz realisieren. Die dort stattfindenden Prozesse haben uns ermöglicht, die Korrelation struktureller, kultureller und strategischer Faktoren besser zu verstehen. Dabei sind neben vielen motivierenden Erfolgserlebnissen auch zahlreiche Fragen und Problemstellungen entstanden, die wir weiter erforschen und anwendungsorientiert systematisieren möchten.

Nach dieser ersten Phase der Entwicklung von Technik, Infrastruktur und lernendenorientiertem OER-Content sehen wir uns nun vor die Herausforderung gestellt, Räume zu schaffen, in denen technikgestütztes Lernen stattfinden kann, sowie nachhaltige Gemeinschaften von Lernenden aufgebaut werden können. Um dieser Frage nachgehen zu können, haben wir, Axel Dürkop und Dr. Tina Ladwig, uns auf das Digital Learning Transfer Fellowship des Stifterverbands und der Reinhard Frank Stiftung beworben. Diese hat es uns ermöglicht mit anderen engagierten Akteur_innen in Kontakt zu treten, die sich auch mit der Frage beschäftigen, wie Lernräume der Zukunft aussehen können.

Der Plan war, dass wir über das offene Forum der TU Hamburg Fotos und Bilder inspirierender Lernräume einsammeln, die wir mit den Methoden der reflexiven Fotografie auswerten wollten. Tatsächlich haben wir in diesem Kontext die Hürden unterschätzt, die der Datenerhebungsprozess mit sich bringt. Zum einen ist es eine Frage von Zeit und Aufwand für die Befragten, die Daten selbst zu erheben, Bilder zusammenzustellen und sich dann im Forum anzumelden, um die Daten zur Verfügung zu stellen. Die meisten Beispiele von Lernräumen haben wir nun tatsächlich über das persönliche Netzwerk einsammeln können. Interessanterweise stammen die meisten Bilder aus Bibliotheken aus aller Welt. Ein Aspekt, der bereits eine wesentliche Erkenntnisse und auch dezidierte Fragestellung mit sich bringt. Welche Rolle spielen Bibliotheken wenn es darum geht, neue Räume an Hochschulen zu finden und zu gestalten?

Weiterentwicklung

Wir glauben immer noch an die Idee, dass es bestimmte Gestaltungskriterien gibt, die Lernräume der Zukunft ausmachen und die einen allgemeingültigen Charakter haben. Um diesen Kriterien auf die Spur zu kommen, haben wir uns dafür entschieden, das methodische Vorgehen zu verändern.

Zusammen mit unserer Kollegin Ann-Kathrin Watolla haben wir ein Workshopkonzept entwickelt, welches die bisher gesammelten Daten integriert und die Teilnehmenden über diese bereits gesammelten Fotos von Lernräumen gemeinsam reflektieren lässt. Ziel war es, gemeinsam mit den Teilnehmenden Gestaltungsoptionen für virtuelle und physische Lernräume und deren Zusammenspiel im Hinblick auf die Unterstützung von Lerngemeinschaften zu erarbeiten. Diesen Workshop haben wir erstmalig im Rahmen der Themenwoche 2018 des Hochschulforums Digitalisierung in Berlin am 25.09.2018 angeboten.

Workshopkonzept

1. Phase: Inspiration und Austausch

Wir haben in dem Raum zunächst zahlreiche Fotos auf A4 ausgedruckt und verteilt und die Teilnehmenden aufgefordert mit Post-its unter diesen Bilder ihre ersten Assoziationen zu kleben.

2. Phase: Themen identifizieren und Cluster bilden

Anschließend haben wir die Teilnehmenden in vier Gruppen aufgeteilt und sie gebeten, sich die Fotos für ihre Gruppe auszusuchen, die sie am meisten inspiriert haben. Dann hatten die Teilnehmenden Zeit sich in der Gruppe ihre Assoziationen gegenseitig vorzustellen und zu Themenclustern zusammenzutragen.

3. Phase: Service- und Supportstrukturen identifizieren

Abschließend wurden die Teilnehmenden aufgefordert, die strukturellen Bedarfe zu benennen, die die Umsetzung und Gestaltung dieser Lernräume erfordern würden. Damit wurde der Blick in die Zukunft gerichtet, um zukünftige Lernräume von Lerncommunities zu beschreiben. Damit schließt der Workshop mit einer gemeinsamen Machbarkeitsanalyse unter verschiedenen (wie z.B. finanziellen) Gesichtspunkten ab.

Aktueller Stand

Bisher haben wir die Ergebnisse noch nicht weiter aufbereiten können. Wir wollen diesen Workshop aber gerne noch in anderen Kontexten durchführen und dann verdichtete Erkenntnisse ableiten können.

Einblicke in den Workshop

]]>