Axel Dürkop – Insights https://insights.tuhh.de/de/ Einblicke in das digitale Experimentierfeld für Lehre und Forschung an der Technischen Universität Hamburg Thu, 06 May 2021 20:28:14 +0000 de-DE hourly 1 https://wordpress.org/?v=4.9.17 https://insights.tuhh.de/wp-content/uploads/2018/06/cropped-Flavcon_I_Kusiv-32x32.png Axel Dürkop – Insights https://insights.tuhh.de/de/ 32 32 Nachhaltige digitale Orientierungsangebote – Ein Erfahrungsbericht von Hop-on https://insights.tuhh.de/de/blog/hooutuhh/2020/05/25/notwendigkeit-und-nachhaltigkeit-digitaler-orientierungsangebote-ein-erfahrungsbericht-von-hop-on/ Mon, 25 May 2020 08:00:50 +0000 https://insights.tuhh.de/?p=21014

Mit einem lachenden und einem weinenden Auge haben wir uns die vielen großartigen Ideen beim HFD-Hackathon angesehen. Vor allem acht der 76 vorgestellten Projekte planen, Orientierungsangebote zu entwickeln, die die zunehmend unübersichtliche Anzahl an Beratungsangeboten oder digitalen Tools und Lernangeboten zielgruppenspezifisch strukturieren und Nutzer_innen auf ein passendes Angebot hin- oder direkt verweisen.

So fokussiert die Toolbox eine Orientierung hinsichtlich vorhandener Tools in der digitalen Bildung anhand bestimmter Kategorien. Sie soll kollaborativ weiterentwickelbar sein. Die Plattform zu Rassismus an Hochschulen soll das aktuell nicht ausreichende Angebote an Antidiskriminierungsberatung ergänzen und einen Raum zum Austausch von Menschen bieten, die von Diskriminierung betroffen sind bzw. unterstützen wollen. Das Digital Education Dashboard (DigEDa) soll einen Überblick über Tools der digitalen Lehre geben – jedoch nach Institutionen filterbar – und zudem konkrete Empfehlungen geben. Darüber hinaus sollen Lehrende (persönlichen) Support bei technischen Problemen erhalten. Die Plattform „Chancengleichheit für alle Studierende-StudEqual“ soll barrierefreie Lerninhalte und Unterstützungsangebote bereitstellen. Der Beratungslotse „Follow me“ soll Studierenden helfen, ihren Weg durch den “Beratungsdschungel“ an einer Hochschule ausgehend von einem Entscheidungsbaum zur richtigen Anlaufstelle bzw. Person für ihr Anliegen zu finden. Das Toolcast: digitale Tools in Lehrerbildung und Schule strebt eine expert_innenbasierte Erprobung und Auswahl verschiedener Werkzeuge und Plattformen sowie der Ergebnisdarstellung an. Der RecoMentor – Lern- und Information Recommender ist ein KI-Empfehlungssystem für Lerninhalte. Survey² – Research goes on(line): Community für Onlineforschung will eine Plattform entwickeln, auf der Forschenden sowie Studierenden u.a. passende Tools empfohlen werden.

Diese Projektideen zeigen, dass ein hoher Bedarf, nicht nur an konkreten Tools und Angeboten, sondern auch der zielgruppen- und themenspezifischen Orientierung vorhanden ist.

Rückblick

Mit derselben Idee sind wir 2016 mit Hop-on gestartet. Wir wollten Erwachsenen und insbesondere erwachsenen Neuankommenden mit Fluchtgeschichte und dem Wunsch, einen (anerkannten) Berufs- oder Studienabschluss zu erreichen, einen möglichst nachvollziehbaren Weg durch das mehr als komplexe föderale Bildungssystem mit unterschiedlichsten Beratungs- und Unterstützungsangeboten sowie die rechtlichen Rahmenbedingungen – insbesondere dem Asyl- und Sozialrecht – bahnen und sie an individuell passende Beratungs- und Weiterbildungsinstitutionen verweisen. Ziel war es, selbstbestimmte Entscheidungen in einem System zu ermöglichen, das durch Intransparenz und strukturelle Hindernisse, aber auch von Ausgrenzungen geprägt ist. Hop-on wurde von der TU Hamburg und dem Projekt EMSA bei der INBAS GmbH  initiiert und in Kooperation mit der Kiron Open Higher Education gGmbH  und der DQG mbh weiterentwickelt.

Nach intensiver Entwicklungsarbeit mit zahlreichen engagierten Menschen zwischen 2016 und 2018 haben wir uns aufgrund fehlender Ressourcen für die Pflege und Weiterentwicklung sowohl der Technik als auch der Inhalte in diesem Jahr schweren Herzens entschlossen, unsere Webpräsenz zu beenden und das Projekt zu archivieren. Hier möchten wir Einblick in die Entwicklung geben und unsere Erfahrungen über zu berücksichtigende Schritte und Rahmenbedingungen sowie den Archivierungsprozess teilen.

Was haben wir in Hop-on entwickelt?

  • Prozesse

    Verknüpfung von GitLab mit der Webseitenanwendung

    Integration der Übersetzungsplattform crowdin

    Übersetzung aller Hop-on-Inhalte in Arabisch, Englisch und Persisch (mit Ausnahme des Leitfadens für Berater_innen)

    Übersetzung der Untertitel von drei Videos in Arabisch, Farsi und Englisch

    Integration einer Newsseite

    Integration eines Formulars für individuelle Anfragen (Abschaltung nach Inkrafttreten der DSGVO)

    Beantwortung individueller Anfragen

Prinzipien der Entwicklung

Hop-on folgte in seiner Entwicklung vier grundsätzlichen Prinzipien:

Obwohl Hop-on das Erreichen eines beruflichen oder akademischen Bildungsabschlusses in den Fokus stellte, sollten Nutzer_innen ohne (anerkannten) Abschluss immer die Möglichkeit haben, andere Wünsche oder Bedarfe zu äußern. Dies beinhaltet sowohl die Unsicherheit über die eigenen Wünsche als auch die Entscheidung, Arbeit zu finden. In diesen Fällen stellte Hop-on weitere Informationen zu Beratungsangeboten und Online-Informationsplattformen zur Jobsuche zur Verfügung.

Alle Inhalte von Hop-on wurden von Anfang an in GitLab für die Öffentlichkeit zugänglich gemacht und unter CC-Lizenz gestellt. Dies erlaubt die Weiterverwendung und Anpassung der Inhalte. Wir wissen dabei nicht, ob von dieser Möglichkeit Gebrauch gemacht wurde.

Die meisten deutschen Webseiten bieten Informationen nur auf Deutsch und Teile auf Englisch an. Während insbesondere Projekte und Angebote für Migrant_innen weitere Sprachen anbieten, sind insbesondere Persisch und Tigrinya unterrepräsentiert. Uns war wichtig, dass Übersetzer_innen für ihre Leistungen auch finanziell entlohnt werden und wir – als gut bezahlte Angestellte – nicht auf Ressourcen des dringend gebrauchten ehrenamtlichen Engagements zurückgreifen. Aufgrund unserer begrenzten finanziellen Ressourcen war eine Übersetzung nur in drei Sprachen möglich. Die Übersetzer_innen arbeiteten dabei in crowdin, welches einmal übersetzte Begriffe und Sätze speichert. Da wir die deutschen Texte in einfacher Sprache formuliert und zur Verständlichkeit konsequent dieselben Begriffe verwendet haben, erleichterte dies auch die Übersetzungstätigkeit.

Das Lotsen durch Angebote muss durch entsprechende Fragen an die Nutzenden gestaltet werden. Für die Entwicklung der Fragen ist die Einbeziehung der Zielgruppen entscheidend, da nur sie wissen, welche Fragen sie haben. Die Einbeziehung erfolgte in Hop-on vor allem über Berater_innen, die mit der Zielgruppe von Hop-on arbeiten und sowohl die Fragen als auch Antworten bündeln konnten. Darüber hinaus haben wir teilnehmende Beobachtungen bei der Nutzung des Fahrplans und des Kompasses zur beruflichen Bildung von erwachsenen Neuankommenden und zwischen dem dem 25.07. und dem 30.10.2017 eine Nutzer_innenumfrage auf der Webpräsenz durchgeführt. Die Erkenntnisse – beispielweise zur Navigation oder unverständlichen Begriffen – wurden in Hop-on integriert. Grundsätzlich hätten wir uns jedoch eine stärkere Einbeziehung der Menschen gewünscht, die wir ansprechen wollten. Dies wird unter den Herausforderungen noch einmal aufgenommen.

Wie funktionierte der Hop-on-Fahrplan?

In Hop-on haben wir ausgehend von der Praxis der Bildungsberatung für erwachsene Migrant_innen bzw. Erwachsene aus Einwandererfamilien einen Fahrplan entwickelt, der die wesentlichen Fragen eines Beratungsgespräches abbildet. Inhaltlich basiert er auf einem Entscheidungsbaum (Abb. 1), der Ratsuchende ausgehend von ja/nein-Fragen über berufliche, schulische und akademische Vorerfahrungen und ihren Wünschen durch das System des Aufenthaltsrechts, des Sozialgesetzbuches II, des Berufsbildungsgesetzes und den Zugangsbedingungen zum Studium zu entsprechenden Ergebnissen mit Empfehlungen zum Aufsuchen einer persönlichen Beratung führt. In dieser sollten die Ergebnisse besprochen werden. Im verlinkten Kompass (Berufliche oder Akademische Bildung) waren die entsprechend recherchierten Beratungsangebote in den Bundesländern aufgelistet und grundsätzliche Fragen ausführlicher beantwortet. Er richtete sich zu Beginn an Erwachsene mit dem Ziel, einen Berufsabschluss nachzuholen und wurde in einer weiteren Projektphase für Studieninteressierte durch entsprechende Abfragen erweitert. Jedes Ergebnis war ausgerichtet an dem angegebenen Aufenthaltsstatus – Aufenthaltsgestattung, -genehmigung oder Duldung – da dieser maßgeblich über die Teilhabe an Bildungs- (aber auch Beratungs-)angeboten entscheidet. Insgesamt wurden 65 Ergebnisse verfasst. Dieser Entscheidungsbaum wurde über die Webpräsenz als Abfrage umgesetzt (Abb. 2 und 3).

Die Webanwendung Hop-on wurde auf Python Django aufgesetzt, weil die Anforderungen an ihre Funktionalität weiter gingen, als es bspw. WordPress oder andere Content-Management-Systeme bieten. Zudem war in der Entwicklung von Interesse, wie verschiedene Prozesse der (halb)automatischen Generierung von Open Educational Resources in eine Webanwendung integriert werden können. Damit war die Anwendung auch ein komplexer und sehr lernhaltiger Gegenstand für das Team.

Der Entscheidungsbaum des Fahrplans ist eine individuelle Implementierung in Django. Hierfür wurden die möglichen Wege zu Ergebnissen zunächst in Zeichnungen modelliert (vgl. Abb. 1). Um eine zuverlässige Reproduktion und Anpassung der Pfade im Fahrplan zu ermöglichen, wurden die drei Entscheidungsbäume für “Aufenthaltsgestattung”, “Aufenthaltserlaubnis” und “Duldung” als Skripte implementiert, mit denen eine relationale Datenbank populiert werden kann. Auf dieser Datenbank aufbauend entstand dann die Implementierung des Fahrplans.

Herausforderungen und lessons learned

Ein befristetes Projekt wie Hop-on ist darauf ausgerichtet, so schnell wie möglich Ergebnisse zu produzieren. Dieser Druck kann dazu führen, dass die eigentlichen Zielgruppen zu wenig in die Entwicklung einbezogen werden. Partizipative Formate zu organisieren, umzusetzen und auszuwerten, erfordert Zeit. Auch das Erreichen der Zielgruppen ist kein Automatismus einer Webpräsenz. Grundsätzlich ist es schwierig, als kleines Projekt so viel Aufmerksamkeit zu generieren, dass die angestrebten Zielgruppen davon wissen und es nutzen können. Wir waren auf verschiedenen Veranstaltungen, zum Beispiel beim Digitalen Flüchtlingsgipfel. Wir waren bestrebt, insbesondere an Initiativen von Neuankommenden wie Syrer-Azubis und Make it German anzuknüpfen. Die Videointerviews sollten den Menschen Raum geben, die die in Hop-on beschriebenen Wege gegangen sind. Insgesamt hätten wir uns gewünscht, ein größeres festes und diverseres Team zu sein und partizipativer vorgehen zu können – sowohl bei der Entwicklung der Inhalte als auch der technischen Umgebung.

Es ist großartig, dass mittlerweile fast alle Beratungsangebote Webpräsenzen haben, auf denen man sich über die Inhalte und Kontaktmöglichkeiten informieren kann. Problematisch ist, dass kontinuierlich

1) (befristete) Projektangebote verschwinden,

2) neue dazu kommen und

3) Änderungen an den Webseiten stattfinden.

Für ein Angebot, das Orientierung schaffen und Menschen durch die Tiefen des Internets begleiten möchte, heißt dies dementsprechend, kontinuierlich Links und Angebote zu prüfen und zu korrigieren. Eine Hilfe kann dabei ein Linkchecker sein, der automatisch benachrichtigt, wenn Links nicht mehr funktionieren. Angesichts der komplexen Inhalte und der unterschiedlichen Orte derselben Links in Hop-on, ist die Korrektur jedoch ein nicht zu unterschätzender Aufwand. Bereits Zertifikatsänderungen führen dazu, dass Links nicht mehr funktionieren. Da es sich vor allem um Beratungsangebote handelt, war eine Einbettung der Inhalte wie Kontaktinformationen keine Option, da sich diese auch stetig ändern können.

Webbasierte Angebote eignen sich besonders dazu, von Engagierten weiterentwickelt zu werden. Bei Hop-on war es insbesondere bei crowdin möglich, Übersetzungen in andere Sprachen selbstständig einzupflegen. Diese Möglichkeit wurde jedoch in nur sehr geringem Maße wahrgenommen. Grundsätzlich ist ein kollaborativer Ansatz unserer Meinung nach gut für kurzfristige, jedoch weniger für langfristige Angebote geeignet, es sei denn, er wird kontinuierlich angeregt und – nicht zu vernachlässigen – die Freiwilligen sehen einen Sinn, Mehrwert und Ziel in ihrem Engagement. Zudem stellt sich die Frage nach der Qualität. Hinsichtlich der Übersetzungen von Hop-on ist zu berücksichtigen, dass Behörden- und Fachbegriffe auch für deutsche Muttersprachler_innen oftmals nicht verständlich sind. Es kommt demnach nicht nur auf eine korrekte Übersetzung, sondern auch eine Einschätzung an, wann ein Begriff so landes- und sprachspezifisch ist, dass er nicht übersetzt, sondern der deutsche Begriff verwendet werden sollte. Für einen deutschen Grundlagentext bedeutet dies wiederrum, dass Begriffe erklärt werden. Zur Qualitätssicherung bräuchte es zudem Personen, die die Übersetzungen prüfen können – wo wir wieder bei Herausforderung 1 sind.

Hop-on lag eine komplexe technische Infrastruktur zugrunde, die verschiedene Anwendungen verzahnte. Im Kontext der oben beschriebenen Fahrplanentwicklung konnten wichtige Erkenntnisse für die Anwendungsentwicklung mit GitLab, Docker und Django gesammelt werden, die in einem späteren Projekt des ITBH, dem digital.learning.lab, aufgegriffen und weiterentwickelt werden konnten. Insofern ist ein wesentlicher Gewinn darin zu sehen, dass soziale und kulturelle Praktiken, aber auch technische Kenntnisse und Fertigkeiten erworben und transferiert werden konnten.

Komplexe technische Systeme bergen somit Chancen, aber auch Risiken für eine Weiterentwicklung, da bereits kleine Veränderungen zu Fehlern im Zusammenspiel dieser führen können. Aus unserer Erfahrung braucht es demnach entweder einfache Anwendungen, die auch mit wenig Entwickler_innen-Knowhow entwickelt und gepflegt werden können. Oder es braucht eine verlässliche Ausstattung mit technischem Personal, das auch nach dem Aufsetzen des technischen Systems kontinuierlich ausreichende Ressourcen hat, sich um Probleme und Weiterentwicklung zu kümmern. Es ist daher die Frage zu stellen, welche Aufgabe Hochschulen an dieser Stelle zukommt: Liegt diese in der Entwicklung lauffähiger Anwendungen, die als Produkte langfristig vorgehalten und gewartet werden können, oder in einem Moment des forschenden Lernens an neuen Technologien, zukunftsweisenden Szenarien und innovativen Ansätzen, dessen Erkenntnisgewinn einen Beitrag zur digitalen Transformation leisten kann. Die Antwort liegt vielleicht irgendwo dazwischen und fordert die Entscheidung heraus, ob unter den geschilderten Rahmenbedingungen, vor allem im Hinblick auf Personalressourcen, produktive Lösungen überhaupt anzustreben sind.

Archivierung

Da wir Hop-on über GitLab aufgesetzt haben, waren von Anfang an alle Inhalte archiviert und wurden von uns für die Öffentlichkeit freigeschaltet. Da die Ordnerstruktur jedoch nicht die übersichtlichste ist, haben wir als HOOU-Projekt das Glück, die Materialien zusätzlich auf der HOOU-Plattform zu hinterlegen, wo sie ebenfalls unter CC-Lizenz zugänglich sind.

Eine weitere Möglichkeit, die sehr attraktiv ist, wir jedoch ressourcenbedingt nicht umsetzen konnten, ist der Webrecorder. Angesichts der unzähligen Webseiten, insbesondere von befristeten Projekten, stellt dies eine weitere Möglichkeit dar, komplette Webpräsenzen zu archivieren, ohne die Interaktivität zu verlieren. Nachhaltigkeit sollte insbesondere in Zeiten des Internets von Projektbeginn an mitgedacht werden.

Wir haben mit Hop-on alle viel gelernt, darin besteht kein Zweifel, und wir sind froh, dass wir zumindest die entwickelten Materialien archivieren und weitergeben können. Was wir uns für alle wünschen, die solch – unserer Meinung nach – immer wichtiger werdenden Orientierungsangebote entwickeln, sind nachhaltige Ressourcen und Strukturen, um Orientierung als Teil des (digitalen) Bildungs- und Beratungssystems langfristig zu implementieren. Wir freuen uns, dass Survey² – Research goes on(line): Community für Onlineforschung einen Preis beim Hackathon gewonnen hat. Wir drücken den anderen Orientierungsprojekten jedoch sehr die Daumen, dass auch sie ihre Ideen nachhaltig umsetzen können.

Wir würden uns freuen, wenn unsere in einem großartigen Team von vielen engagierten Menschen entwickelten Ansätze weiterverwendet und -entwickelt werden. Ihnen und unseren Interviewpartner_innen gilt unser Dank: Ali, Andreas, Anne, Daphne, Dodo, Dr. Abouelmaati, Faisal, Fouad, Herr Cissé, Herr Mengesha, Isidora, Johanna, Konstantin, Lothar, Michael, Mohammad, Nazime, Omar, Prof. Dr. Dr. h.c. Garabed Antranikian, Sam, Sami, Stephan und Zeinah.

Gerne stehen wir für Fragen zu Verfügung.

Axel Dürkop, Christiane Arndt und  Dr. Tina Ladwig (TUHH)

 

Weitere Beiträge

]]>
Transparent und effizient mit Mattermost kommunizieren https://insights.tuhh.de/de/blog/tools/2020/03/26/transparent-und-effizient-mit-mattermost-kommunizieren/ Thu, 26 Mar 2020 16:00:03 +0000 https://insights.tuhh.de/?p=14573

Die Art, sich elektronisch zu vernetzen und zu kommunizieren, hat sich in den vergangenen Jahren stark verändert. Soziale Netzwerke sind an die Stelle von Email getreten und Smartphones zu den zentralen Eingabegeräten geworden. Die Kommunikation in diesen Netzwerken verzichtet auf Schnörkel und kann binnen Kurzem viele Akteur_innen einbinden. Insbesondere in der aktuellen Zeit, in der die meisten Personen im Homeoffice arbeiten, gewinnen niederschwellige, zum Teil auch informelle Kommunikationswege an Bedeutung. Aber auch in entspannteren Zeiten haben soziale Netzwerktools in Lehre und Forschung schon ihren Platz eingenommen (vgl. Perkel, 2016 und Hand, 2016a, 2016b).

Am Institut für Technische Bildung und Hochschuldidaktik (ITBH) haben wir 2016 Mattermost eingeführt, um das Potenzial eines modernen Chattools zu testen. Slack schied nicht zuletzt aufgrund seines Geschäftsmodells und seiner Datenschutzbedingungen aus. Mattermost ist freie Software und damit auch mit der Policy für Offenheit in Forschung und Lehre der TUHH vereinbar. Waren anfangs nur wenige Kolleg_innen aktiv, wächst deren Zahl mit jedem neuen Projekt an. Die Akzeptanz von Mattermost als zentralem Kommunikationswerkzeug gelang vor allem mit einer persönlichen Einführung in die Anwendung des Tools und einem gemeinsamen Aushandlungsprozess, wie es allen Beteiligten den größten Nutzen bringt – und mit Geduld. Da es direkt mit der GitLab-Instanz der TUHH verbunden ist, ergeben sich weitere positive Effekte in der Projektkoordination.

Projektkommunikation im Team

Die oberste technische Ordnungseinheit ist in Mattermost das Team. Ob Teams nach außen sichtbar und frei zugänglich sind, kann individuell entschieden werden. Es macht Sinn, die Teilnahme an einem Team über Einladungen zu steuern, da bei aller gewünschten Transparenz oft Interna verhandelt werden. An der TUHH sind mittlerweile mehrere Institute in Mattermost-Teams organisiert und beziehen auch externe Partner_innen bspw. in Drittmittelprojekten mit ein.

Für den Austasch zur digital gestützten Lehre an der TUHH wurde im März 2020 das hochschulweite Team OnlineEduTUHH eingerichtet. Eine Einleitung zur Anmeldung für dieses Team gibt es in den Praktischen Tipps für das Umstellen der Präsenzlehre an der TU Hamburg.

Transparent kommunizieren

Mattermost kennt drei Abstufungen von Transparenz im Team:

  • Öffentliche Kanäle. Öffentliche Kanäle können von allen Teammitgliedern angelegt und abonniert werden. Die Kommunikation in einem öffentlichen Kanal kann von allen mitgelesen und mitgestaltet werden, die ihn abonniert haben. So lässt sich die Kommunikation im Projekt thematisch ordnen und offen führen (vgl. Abb., (1)).
  • Private Kanäle. Soll es in einem Team Bereiche geben, in denen nur eingeladene Mitglieder kommunizieren, können private Kanäle eingerichtet werden. Diese sind unsichtbar für Außenstehende und können bspw. vom Dozententeam verwendet werden, wenn Mattermost in der Lehre zum Einsatz kommt (vgl. Abb., (2)).
  • Direktnachrichten. Für einen direkten Austausch zwischen allen Nutzer_innen von Mattermost an der TUHH steht letztlich die Funktion zur Verfügung, Direktnachrichten zu verschicken. Es können auch adhoc-Gruppen kommunizieren, indem mehrere Teilnehmende in einen Chat mit Direktnachrichten einbezogen werden (vgl. Abb., (3)).
Hauptansicht in Mattermost (Quelle: Homepage Mattermost)

Nachrichtenflut organisieren

Insbesondere wenn viele Menschen in einem Team zusammenkommen, kann es leicht passieren, dass einzelne Nachrichten untergehen. Dagegen gibt es einige leichte Tipps und Tricks, die den Umgang mit vielen Nachrichten vereinfachen:

  • Anzeigen ungelesener Nachrichten: Oben links in der Seitenleiste kann man durch Klick auf den eigenen Namen die Kontoeinstellungen Unter Seitenleiste > Kanalgruppierung und -sortierung einfach einen Haken bei „Ungelesene separat gruppieren“ setzen und schon werden ungelesene Nachrichten oben in der Seitenleiste gebündelt dargestellt.
  • Direkte Ansprache von einzelnen Personen: Wenn einzelne Personen in einem Kanal direkt angesprochen werden, kann dies über @benutzername gemacht werden. Der Vorteil ist, dass die Person direkt eine Benachrichtigung darüber bekommt.
  • Antworten auf Nachrichten: Um die unterschiedlichen Gesprächsstränge in einem Kanal etwas zu strukturieren, sollten Antworten auf eine Nachricht über den Antwortpfeil rechts neben der Nachricht erfolgen. So werden alle Nachrichten und Antworten zu einem Thema in einem sogenannten Thread zusammengefasst.
  • Markieren von zentralen Nachrichten: Zentrale Nachrichten, die für alle Teammitglieder interessant und relevant sind, können manuell mit einem digitalen Pin versehen werden, damit sie unter der Fülle von Nachrichten nicht untergehen. Diese gepinnten Nachrichten können in dem jeweiligen Kanal über das Stecknadel/Reißzwecken-Symbol oben rechts eingesehen werden.

Dateiablage individuell aushandeln

Wenngleich Mattermost die Möglichkeit bietet, auch Dateien im Chat zu teilen, empfiehlt es sich, davon wenig Gebrauch zu machen. Denn die Erfahrung zeigt, dass die Dateien schlecht wiedergefunden werden können, wenn sie erst einmal im Stream verschwunden sind. Auch ist oft nicht klar, welches die letzte verlässliche Version einer Datei ist.

Aus diesen Gründen sind wir dazu übergegangen, Dateien an anderen Orten zu speichern, und im Chat nur die Orte zu benennen, wo sie zu finden sind. Dieses Vorgehen ermöglicht allen Beteiligten, in ihren Projekten die Orte der Dateiablage individuell auszuhandeln. Nextcloud oder GitLab an der TUHH kommen hier in Frage, aber auch proprietäre Dienste von Drittanbietern.

Proaktives und empathisches Teilen

Wie Hand (2016b) aufzeigt, kann die Kommunikation in Tools wie Mattermost die Empathie für andere Teammitglieder und deren Aufgaben erhöhen. Während Linkempfehlungen per Mail noch nie gut gelitten waren, sind Hinweise auf Quellen, die andere im Team interessieren könnten, in Mattermost keine Last, sondern eine Bereicherung. Am ITBH pflegen wir in diesem Sinne das proaktive Teilen von Informationen, von denen wir denken, andere sollten sie auch haben. Sich dafür zu bedanken, ist nicht unbedingt notwendig, kann aber sehr unaufwändig mit einem Emoji geschehen.

Aktivitäten im Blick behalten

Mattermost wirbt damit, mehrere hundert Apps von Drittanbietern integrieren zu können. Wir nutzen dieses Potenzial am Institut bisher nicht, weil noch niemand danach verlangt hat. Eine Integration, die wir intensiv nutzen und die Entwicklungsgeschwindigkeit von Text- und Softwareprojekten sehr beschleunigt, ist GitLab. In dedizierten Bot-Kanälen lassen wir uns über Ereignisse in GitLab informieren. Wenn bspw. jemand ein neues Issue anlegt, Dateien ergänzt oder neu hochgeladen werden oder Buildpipelines scheitern, meldet GitLab das Ereignis in Mattermost. So können wir schnell darauf reagieren.

Mattermost spielt seine Stärken in der synchronen Kommunikation genauso aus wie in der asynchronen. Wenn alle während der üblichen Bürostunden an ihren Rechnern sitzen – im Institut oder im Home Office – ist der Austausch über Mattermost wesentlich schneller und präziser als per Mail. Da es oft um Texte, Formeln, Codeschnipsel und Links auf Dateiablageorte geht, ergänzt Mattermost das persönliche Gespräch sinnvoll. Aber auch in der Zusammenarbeit mit studentischen Hilfkräften und Tutor_innen leistet Mattermost gute Dienste. Sie können an ihren oft wechselnden Arbeitstagen die vergangene Kommunikation im Projekt nachvollziehen und sich schnell wieder auf den Stand bringen.

Mattermost in der Lehre

2017 hat Axel Dürkop Mattermost erstmals in der asynchronen Betreuung von Studierenden eingesetzt und damit bisher ganz gute Erfolge gehabt. Die Herausforderungen liegen dabei nicht in der Benutzung des Tools. Vielmehr ist die Frage zunächst, wie Mattermost so attraktiv gemacht werden kann, dass es an die Stelle von WhatsApp tritt, das Studierende bisher sehr häufig für den Austausch innerhalb ihrer Kohorten einsetzen. Das Argument ist stets, dass wenn sie auf die Unterstützung von Axel Dürkop als Dozent Wert legen, sie sich über Mattermost an ihn wenden müssen. Wenn er eine Mail bekommt, bittet er darum, die Frage oder das Anliegen noch einmal in Mattermost zu formulieren – außer, es handelt sich um persönliche Angelegenheiten. Oft bekommt er dann eine Direktnachricht, die er gern beantwortet. Gleichzeitig werden die Studierenden gefragt, ob sie sich nicht vorstellen können, ihre Anfrage auch in einem öffentlichen Kanal zu stellen. Manchmal ergeben sich daraus dann erweitere Diskussionen mit anderen Studierenden.

Eine weitere Herausforderung liegt darin, dass die Studierenden über die Woche zu sehr unterschiedlichen Zeiten an ihren Rechnern sitzen und die gestellten Aufgaben erledigen. Damit Tutor*in und Lehrende*r dann auch online sind, wurden die Projektteams im vergangenen Semester gebeten, ihre TOBOT (Time Of Being Online Together) bestimmen lassen. Wir haben dann versucht, auch zu diesen Zeiten online zu sein, um uns möglichst zeitnah in die verhandelten Probleme und Fragestellungen einmischen zu können – wenn diese transparent in öffentlichen Kanälen waren. Die Idee halten wir nach wie vor für sinnvoll, allerdings konnte diese lose Form der Verabredung aus unterschiedlichen Gründen nicht immer eingehalten werden.

Zwischenfazit

Mattermost in Forschung, Lehre und Softwareentwicklung birgt großes Potenzial. Am wichtigsten scheint – wie immer bei Prozessen, die einen Kulturwandel bedeuten – Geduld zu haben und nicht zu früh aufzugeben. Gegenüber meinen Kolleg_innen und Studierenden wurde immer deutlich gemacht, dass es darum geht, etwas auszuprobieren und dann gemeinsam zu schauen, ob dabei was Sinnvolles herauskommt. Und dies scheint im Rückblick nicht unwesentlich bei der Einführung der neuen Software zu sein: Alle Beteiligten als gleichberechtigte Mitwirkende in einem Experiment zu behandeln, deren Gewohnheiten, Erwartungen und Bedürfnisse ernst genommen werden müssen, wenn das Projekt gelingen soll.

Referenzen

Hand, J. (2016a). ChatOps Managing Operations in Group Chat. Sebastopol: O’Reilly. Zugriff am 17.12.2016. Verfügbar unter: http://www.oreilly.com/webops-perf/free/files/chatops.pdf

Hand, J. (2016b, Dezember 6). ChatOps Essential Guide: The Basics, Benefits, and Challenges. TechBeacon. Zugriff am 17.12.2016. Verfügbar unter: https://techbeacon.com/chatops-essential-guide-basics-benefits-challenges

Perkel, J. M. (2016). How Scientists Use Slack. Nature, 541 (7635), 123–124.

Dieser Beitrag wurde in der ersten Version vom 03. Oktober 2018 von Axel Dürkop und in der zweiten Version vom 26. März 2020 von Axel Dürkop und Ann-Kathrin Watolla verfasst.

]]>
4211: Axel Dürkop – Offene sozio-technische Systeme in Lehre und Forschung https://insights.tuhh.de/de/blog/podcast-42/2019/10/16/19601/ Wed, 16 Oct 2019 10:00:10 +0000

4211: Axel Dürkop – Offene sozio-technische Systeme in Lehre und Forschung

Axel Dürkop spricht über sozio-technische Systeme und Offenheit in Lehre und Forschung

Informationstechnische Systeme in Lehre und Forschung existieren nicht ohne den Menschen, der sie auswählt, entwickelt und mit ihnen interagiert. Daher ist es nur schlüssig, diese Systeme als sozio-technische Systeme zu fassen (vgl. Herrmann, 2003). Axel Dürkop spricht in unserer aktuellen Folge darüber, wie ihn dieses Verständnis von Technik bei seiner Arbeit beeinflusst und welche Rolle dabei die Wertvorstellungen von Offenheit spielen. Dabei wird deutlich, wie sein “erstes Leben” als Theaterregisseur, Musiker und Darsteller seine Arbeit als Forscher, Dozent und Entwickler  an der Hochschule beeinflussen.

Axel Dürkop ist Wissenschaftlicher Mitarbeiter am Institut für technische Bildung und Hochschuldidaktik (ITBH) an der TU-Hamburg.

 

Linkliste

Literatur

  • Dürkop, A., Hagen, F. & Meinecke, I. (2019). Offenheit leben: Kollaboratives Schreiben und Publizieren unter Berücksichtigung der Werte von Open Science. Konferenzposter, Open-Access-Tage 2019, Hannover. Verfügbar unter: https://doi.org/10.5281/zenodo.3267474
  • Dürkop, A. & Ladwig, T. (2018). Kollaborativ schreiben mit GitLab. Markdown & Pandoc (2. Auflage, S. 196–205). Graz: ebooks.kofler.
  • Dürkop, A. (2017). Die Architektur von Offenheit. Überlegungen zur Gestaltung der digitalen Transformation. Nachwuchs-Keynote, Junges Forum für Medien und Hochschulentwicklung, Hamburg. Zugriff am 16.6.2018. Verfügbar unter: https://doi.org/10.15480/882.1657
  • Dürkop, A., Böttger, A., Ladwig, T. & Knutzen, S. (2017). Ein technisches System für die kollaborative OER-Entwicklung im Experimentierfeld der TUHH. Hamburg Open Online University. Projektblog, . Zugriff am 16.6.2018. Verfügbar unter: https://doi.org/10.15480/882.1653
  • Dürkop, A. (2016). Entwicklung einer offenen technischen Infrastruktur für HOOU-Lernarrangements an der TUHH. Hamburg Open Online University. Projektblog, . Zugriff am 16.6.2018. Verfügbar unter: https://doi.org/10.15480/882.1649
  • Herrmann, T. (2003). Learning and Teaching in Socio-technical Environments. Informatics and the Digital Society: Social, Ethical and Cognitive Issues (S. 59–71). Gehalten auf der IFIP TC3/WG 3.1 & 3.2 Open Conference on Social, Ethical, and Cognitive Issues of Informatics and ICT, Dortmund, Deutschland, Boston, Massachusetts: Kluwer Academic Publishers. Zugriff am 7.7.2019. Verfügbar unter: https://doi.org/10.1007/978-0-387-35663-1_6
  • Sennett, R. (2018). Die offene Stadt: Eine Ethik des Bauens und Bewohnens. (M. Bischoff, Übers.) (1. Auflage.). München: Hanser Berlin.
  • Thomas, A. P. (2014). Making Makers: Kids, Tools, and the Future of Innovation. Sebastopol, CA: Maker Media.

Aktuelle Projekte

 

Weitere Episoden

]]>
Forschungsdatenmanagement in BRIDGING https://insights.tuhh.de/de/blog/open-discourses/open-science/2019/05/08/forschungsdatenmanagement-in-bridging/ Wed, 08 May 2019 11:53:46 +0000 https://insights.tuhh.de/?p=19173 Aktuelle Diskurse in der Forschung weisen zunehmend auf das Potenzial offener Forschungsprozesse hin. So kann beobachtet werden, dass offene Forschungspraktiken entlang des gesamten Forschungsprozesses zunehmend an Bedeutung gewinnen. Will man Offenheit jedoch ernsthaft in einem Forschungsprozess berücksichtigen, bedeutet dies, dass Offenheit sich nicht nur im Bereich von Open-Access-Publikationen niederschlägt. Vielmehr geht es darum, die Prinzipien offener Forschung von Beginn an zu berücksichtigen (vgl. Steinhardt 2018). Das Projekt BRIDGING bot die Gelegenheit, genau diese zeitgemäßen Praktiken in der Datenerhebung und Datenverarbeitung aufzugreifen und im Forschungsprozess anzuwenden, wobei in diesem Forschungsprojekt ein qualitatives Forschungsdesign verfolgt wird.

Offenheit von Anfang an

Konkret bedeutet dies, dass sowohl die Datenerhebung, die Datenauswertung und die Datenarchivierung abhängig von den Prinzipien der qualitativen Sozialforschung offen gestaltet werden. Damit einher gehen unterschiedliche technische, aber vor allem auch soziale Anforderungen. Insbesondere in der qualitativen Forschung stehen wir hier vor der Herausforderung, die erhobenen Daten zu anonymisieren und die Interviewpartner_innen davon zu überzeugen, ihr gesprochenes Wort auch offen zugänglich zu machen. Diese Vorbehalte wurden auch schon von anderen Forscher_innen thematisiert (vgl. Fecher, Friesike, und Hebing 2015; Whyte und Pryor 2011).

Doch was bedeutet es nun konkret, Offenheit in einem qualitativen Forschungsprozess zu berücksichtigen und sowohl die Zugänglichkeit der Daten als auch deren Nachnutzung zu gewährleisten?

Lessons learned

Im Rahmen des qualitativen Forschungsprojektes BRIDGING haben wir hierzu einige Erfahrungen gesammelt, die wir in diesem Beitrag gerne weitergeben wollen.

BRIDGING ist als qualitatives Forschungsprojekt angelegt und untersucht den Transfer digitaler Hochschulbildungskonzepte aus Hochschulverbünden in Fachdisziplinen. Die Datengrundlage hierbei sind individuelle leitfadengestützte Interviews. Diese entsprechend des Open Science Ansatzes offen und transparent zugänglich zu machen, zieht einige Implikationen nach sich.

Davon ausgehend hat das Team von BRIDGING schon sehr früh im Projekt (Frühjahr 2018) das Beratungsangebot der Universitätsbibliothek der TU Hamburg (tub.) zum Forschungsdatenmanagement (FDM) wahrgenommen. Im Hinblick auf eine spätere Nachnutzungsmöglichkeit der erhobenen Daten durch andere Forschende wurde mit Hilfe einer Juristin an der tub. eine Einverständniserklärung verfasst, die verschiedene Grade von Offenheit in der Nachnutzung vorsieht. Interviewpartner_innen im Projekt sollten schon vorab darüber aufgeklärt werden, dass die Absicht besteht, ihre Aussagen durch die Zugänglichmachung in einem wiss. Datenrepositorium für Interessierte bereitzustellen.

Als Datenrepositorium wurde für diesen Zweck gesis ins Auge gefasst, das 2018 in der wiss. Community als erster Anlaufpunkt für sozialwissenschaftliche Daten galt. Nach Abschluss der Auswertung einer großen Zahl von Interviews wurde Anfang 2019 der Überstellungsvorgang der Daten an gesis aufgesetzt. Ein Telefonat mit dem Datenrepositorium zum Zweck einer abschließenden Beratung und Validierung des geplanten Vorgehens förderte den Umstand zutage, dass gesis nur noch quantitative Daten aufnehmen würde. Beispiele qualitativer Daten im datorium von gesis, an denen sich das Team BRIDGING orientiert hatte, wurden als Sonderfälle aus den Anfangszeiten des Forschungsdatenzentrums eingeordnet.

Zusammenarbeit und Unterstützung

Diese Aussage forderte dazu auf, einen neuen Ort für die Interviewdaten aus BRIDGING zu suchen. Die Beratung bei gesis hatte das DFG-geförderte Projekt Qualiservice in Bremen empfohlen, das sich auf qualitative sozialwissenschaftliche Daten spezialisiert hat. Eine erste telefonische Kontaktaufnahme mündete unmittelbar in eine sehr positive Beratung und Begleitung des FDM-Prozesses. So konnten in weiteren Telefonaten mit Projektmitarbeiter_innen in Bremen auch forschungsethische und technische Fragen im Umgang mit den Daten geklärt werden. Das Team BRIDGING wurde u.a. in der Absicht bestärkt, von den Interviewpartner_innen eine weitere Einverständniserklärung mit detaillierten Aussagen zu den Rahmenbedingungen des FDM einzuholen, wenn diese einer Zugänglichmachung grundsätzlich zugestimmt hatten.

Dieses Anschreiben wurde in wechselseitiger Abstimmung formuliert, wobei auch viel Wissen und Praxiserfahrung im Umgang mit Forschungsdaten in der Nachnutzung kommuniziert wurden. So wurde bspw. deutlich, dass die Zugänglichmachung von Forschungsdaten bei Qualiservice in Bremen an sehr strikte Bedingungen geknüpft ist. Der Aufwand, der mit der Nachnutzung verbunden ist, schützt die Teilnehmenden von Studien jedoch vor nicht-wissenschaftlichen Zugriffen auf ihre Daten und grenzt sich damit von frei zugänglichen Datenplattformen wie Zenodo ab.

Außerdem konnte festgestellt werden, dass die Kenntnis und Berücksichtigung aller Bedingungen für die Zugänglichmachung von Forschungsdaten zu Beginn einer Erhebung diese beeinflusst hätte. Das bedeutet, wenn ein Ziel in einem Forschungsprojekt die abschließende Zugänglichmachung der Daten ist, kann dieses durch das Design der Erhebung präziser angestrebt werden, wenn alle Bedingungen des FDM vorher bekannt sind und berücksichtigt werden. Allerdings ist das Team BRIDGING zu dem Schluss gekommen, dass sich dieses Ziel auch auf die Formulierung der Interviewfragen und die Atmosphäre des Gesprächs auswirken und ggf. die Aussagen der Teilnehmenden unerwünscht lenken könnte.

Es kann an dieser Stelle des Forschungsprozesses festgestellt werden, dass die Erhebung qualitativer Daten mit einem erheblichen Aufwand für die Nachnutzung verbunden ist. Dieser besteht nicht nur in der besonderen Aufbereitung für die Nachnutzung (Anonymisierung/Pseudonymisierung), sondern auch in der Abstimmung der Transkripte mit den Teilnehmenden der Studie. Dies nimmt Zeit in Anspruch und birgt das Risiko, dass Teilnehmende trotz anfänglicher Zustimmung für die Zugänglichmachung ihrer Aussagen, diese zurückziehen, wenn sie sie schwarz auf weiß vorgelegt bekommen.

Wir befinden uns noch im Forschungsprozess, da das Projekt BRIDGING erfreulicherweise bis Ende 2019 verlängert wurde. Daher können und wollen wir an dieser Stelle weiter berichten.

Literatur

  • Fecher, Benedikt, Sascha Friesike, und Marcel Hebing. 2015. «What Drives Academic Data Sha-ring?». PLoS ONE 10 (2): https://doi.org/10.1371/journal.pone.0118053
  • Steinhardt, Isabel. 2018. «Open Science-Forschung und qualitative Methoden – fünf Ebenen der Reflexion». MedienPädagogik 32, (Oktober), 122–138. https://doi.org /10.21240/mpaed/32/2018.10.28.X.
  • Whyte, Angus, und Graham Pryor. 2011. «Open Science in Practice: Researcher Perspectives and Participation«. IJDC 6 (1): 199–213. https://doi.org/10.2218/ijdc.v6i1.182
]]>
Jupyter Notebook und JupyterLab https://insights.tuhh.de/de/blog/tools/2019/02/21/jupyter-notebook-und-jupyterlab-fuer-open-science/ Thu, 21 Feb 2019 19:36:34 +0000 https://insights.tuhh.de/?p=18795

Die preisgekrönte Software Jupyter Notebook ist in vielen Forschungsbereichen zum Defacto-Standard geworden. Bei der Entwicklung von Algorithmen, der Verarbeitung von Daten und der Zusammenarbeit in offenen Forschungsprozessen spielt die Software ihre Stärken aus. JupyterLab ist die Weiterentwicklung von Jupyter Notebook und bietet vor allem auf der Benutzeroberfläche einige sinnvolle Neuerungen (vgl. Abb. 1).

Abbildung 1: Screenshot JupyterLab. Quelle: https://jupyterlab.readthedocs.io/en/latest/

Loslegen mit Jupyter

Die klassische Arbeit in Jupyter Notebooks beginnt mit dem Import von Daten. Mit zahlreichen Skript- und Programmiersprachen können diese aufbereitet, analysiert und visualisiert werden. Unter den verfügbaren Kerneln befindet sich auch eins für Matlab, das in den Ingenieurwissenschaften nach wie vor stark verbreitet ist.

Da Jupyter Notebook mit so genannten Zellen arbeitet, können sich Codezellen und Textzellen abwechseln. Code wird direkt in den Zellen ausgeführt, Texte werden in Markdown verfasst. Dadurch können Hypothesen und Annahmen über die Daten formuliert und anschließend mithilfe von Code direkt überprüft werden. Die folgende Zelle hält dann die Beobachtung und Interpretation fest. So entstehen reproduzierbare Forschungstagebücher und im fortgeschrittenen Stadium publikationsreife Artikel. Abb. 2 zeigt an einem einfachen Beispiel die Verzahnung von Text und Code.

Abbildung 2: Screenshot eines Jupyter Notebooks, das die Kombination von Code- und Textzellen zeigt. Quelle: eigene Darstellung

Was Burger und Notebooks gemeinsam haben

Die Jupytertools haben deshalb in vielen verschiedenen Domänen einen bedeutenden Stellenwert erlangt, weil sie den klassischen wissenschaftlichen Workflow so komprimiert abbilden wie ein Burger ein Dreigängemenü:

  • Salat und Brot als Vorspeise
  • Fleisch im Hauptgang und
  • Käse zum Abschluss

Für Jupyter Notebook heißt das:

  • Analysieren und erkennen
  • Schreiben
  • Publizieren

Wie auch der Hamburger die Abfolge der drei Gänge zeitlich und räumlich in sich vereint, finden auch in einem Notebook die drei Schritte des wissenschaftlichen Arbeitens zeitgleich und iterativ statt: Während ich forsche, schreibe ich auf, was ich beobachte, forsche mit neuen Erkenntnissen weiter, schreibe und schreibe und veröffentliche im besten Sinne von Open Science schon während des Forschungsprozesses meine Mitschriften und Daten.

Mein Forschungsergebnis veröffentliche ich dann am besten in einem Open-Access-Journal und zitiere darin den Digital Object Identifier (DOI), unter dem meine Notebooks zu finden sind. Den DOI habe ich von Zenodo bekommen, als ich dem Dienst einen Link zu meinem GitHub-Repo mit meinen Jupyter Notebooks gezeigt habe.1 Der Journalartikel zusammen mit meinen Notebooks und Daten machen mein Forschungsergebnis und das Vorgehen transparent und nachvollziehbar.

Um es anderen Wissenschaftler_innen noch einfacher zu machen, nutze ich Tools wie binder, die es erlauben, Notebooks aus dem Git[Hub|Lab]-Repo direkt im Browser interaktiv nachzuvollziehen, um damit die Ergebnisse aus der Publikation zu reproduzieren und zu prüfen. Abb. 3 visualisiert diesen möglichen Workflow exemplarisch.

Abbildung 3: Exemplarischer Publikationsworkflow mit Jupyter Notebook. Quelle: eigene Darstellung

Über den folgenden Button

 

kann das Beispiel aus Abb. 2 direkt im Browser nachvollzogen werden. In der sich öffnenden Ansicht ist die Datei jupyter-beispiel.ipynb anzuklicken. Anschließend können die Zellen geändert und mit STRG+ENTER erneut ausgeführt werden.

Abbildung 4: Darstellung der Dateien in Jupyter Notebook

Jupyter Notebook und JupyterLab laufen auf allen relevanten Betriebssystemen als Browsertool und können bspw. mithilfe von Anaconda auf dem eigenen Rechner installiert werden. Über eine serverseitige Installation von JupyterHub sind auch kollaborative Arbeiten an Daten- und Forschungsprojekten möglich.

Jupyter-Notebook-Installationen sind einfach über Plugins zu erweitern. So können z.B. mit RISE Präsentationen direkt aus Notebooks erstellt werden. Jede Zelle kann dabei zu einer eigenen Folie werden, in der der Code bei einer Präsentation live ausgeführt werden kann!

Jupyter an der TUHH

Die TUHH verfügt seit 2018 über einen JupyterHub, der im WiSe 2018/19 erstmals auch für elektronische Prüfungen eingesetzt wird. Zuvor hatten die Studierenden ein Semester lang eine handlungsorientierte Einführung in Machine-Learning-Grundlagen mit Python, wobei Jupyter Notebooks das zentrale Tool waren. Wir werden in diesem Blog noch ausführlich darüber berichten.

Weiterführende Links


  1. Die Vergabe von DOIs ist derzeit nur für GitHub-Repositories möglich. Repos im GitLab der TUHH können jedoch einfach zu GitHub gespiegelt werden. Mehr dazu im Blog der TU Bibliothek↩

Dieser Beitrag wurde verfasst von Axel Dürkop. Er erschien zuerst im Workshopskript “Kollaborieren in Forschung und Lehre” und würde für diesen Beitrag noch einmal überarbeitet. Teaserbild “Vpython in Jupyter Notebook” von thekirbster, CC-BY 2.0

Weitere Beiträge

SeaPiaC

SeaPiaC

The aim of the project is to create a digital collaborative learning environment in which students of TUHH and NCKU collaborate on challenges of sustainable nature-based coastal protection in times of a changing climate.

]]>
Erfolgreicher Start von “Open Your MINT” in der Zentralbibliothek https://insights.tuhh.de/de/blog/projekte/2019/02/07/tekethics-und-scifivisions-in-der-zentralbibliothek/ Thu, 07 Feb 2019 16:00:57 +0000 https://insights.tuhh.de/?p=18717

Seit dem vergangenen Herbst kooperiert die Hamburg Open Online University (HOOU) mit den Bücherhallen Hamburg. In der Reihe “Open Your MINT – Gestalte deine digitale Zukunft!” finden im ersten Halbjahr 2019 verschiedene Workshops zu aktuellen HOOU-Projekten statt. Veranstaltungsort ist immer die Zentralbibliothek am Hühnerposten. Den Start in die Reihe machten wir am vergangenen Samstag, dem 02. Februar 2019, mit den Projekten tekethics (TUHH) und SciFiVisions (HCU/TUHH).

 

tekethics – Philosophische Annäherungen an aktuelle technische Entwicklungen

Blockchain, Big Data, Internet of Things, Virtual Reality, Augmented Reality, Robotik und Biotechnologie fordern Gesellschaften weltweit heraus, das technisch Machbare mit ihren Normen und Werten zu vereinbaren. Einfache Antworten sind rar, eine Frage zieht eine weitere nach sich und viele Technologien sind miteinander verbunden, was die Angelegenheit nochmals komplexer macht. Darüber hinaus wirken viele Technologien in ganz unterschiedliche Lebensbereiche hinein und irritieren unsere Traditionen und Gewohnheiten im Straßenverkehr, der Arbeitswelt, dem Gesundheitssystem, dem Wohnbereich, der Privatsphäre und der Sexualität (vgl. z.B. Specht, 2018).

Wie wirken sich intime Beziehungen zu Maschinen auf Mitmenschen aus?
Wer ist verantwortlich, wenn Maschinen bei der Arbeit Unfälle
verursachen?
Welche Verpflichtungen haben wir gegenüber künftigen Generationen und der Umwelt?
Verlieren Aspekte des Lebens an Bedeutung, wenn der Tod nicht mehr das Ende ist?

Das interessierte Publikum der Veranstaltung kam anhand dieser und anderer Fragen ins Gespräch miteinander und gründete am Ende der Veranstaltung einen Stammtisch, der sich regelmäßig mit Fragen im Spannungsfeld von Technik und Ethik beschäftigen möchte. Wir werden berichten, wenn dieser getagt hat.

SciFiVisions

In der zweiten Veranstaltung des Tages haben wir ähnliche Themen aufgegriffen, wie im tekethics Workshop, diese allerdings durch die kulturell-kreative Linse neu betrachtet. Ausgehend von unserem Verständnis, das Science Fiction (SF) eine Betrachtung möglicher Zukunft mit einem Fokus auf technologische Innovationen ist, haben wir die Diskussion damit gestartet, Zukunftsvisionen im SF-Film zu betrachten und verschiedene Szenarien danach abzuklopfen, wo wir bereits sind. Was vom Gezeigtem ist eigentlich als Imagination und was als direkte Fortführung des Ist-Zustands zu verstehen.

Wenn Wall-E über eine zugemüllte Erde düst, dann ist das in Anbetracht des Great Pacific Garbage Patch oder der riesigen Elektroschrottberge in Afrika keineswegs mehr eine ferne Zukunft. In der Diskussion ging es dann neben der Umweltverschmutzung (etwa in Wall-E – Der letzte räumt die Erde auf) auch um die Erderwärmung und die Flucht globaler Eliten in ihre Gated Communities oder, wie im Film Elysium, gar in den Weltraum. Ungleichheit und Ungerechtigkeit waren hier Stichworte, die auch eine Verbindung zur Robotik, der Automatisierung und dem Status von Arbeit (u.a. in Blade Runner und dem Kurzfilm Robots of Brixton) ermöglichten. Und schließlich haben wir uns über die ganz konkreten Lebenserfahrungen im Umgang mit sozialen Medien, der Abhängigkeit von Technologien für den Alltag und den Beziehungen im digitalen Zeitalter beschäftigt (u.a. im Film Her, der TV-Serie Black Mirror und dem Kurzfilm Strange Beasts).

Fortsetzung folgt

Wir beurteilen den Auftakt zu “Open Your MINT” positiv und freuen uns, dass auch das Veranstaltungsmanagement der Bücherhallen zufrieden war. Wir haben aber auch gelernt, dass die Diskussion über ethische Fragen aktueller Technologien, wie auch über deren kulturelle Darstellung, sehr voraussetzungsreich ist. Einige Teilnehmende äußerten, dass sie sich im tekethics Workshop zum ersten Mal mit den “Buzzwords” der Digitalisierung intensiv auseinandergesetzt hatten. Und im SciFiVisions Workshop fiel auf, dass die mitgebrachten Beispiele einem großen Teil des Publikums nicht präsent waren. Die HOOU-Projektleiter Axel (tekethics) und Lars (SciFiVisions) sind sich einig, dass in Zukunft die intensive Beschäftigung mit ein bis zwei technologischen Trends pro Workshop gut wäre und die Veranstaltungen dafür häufiger stattfinden könnten. Auch eine inhaltliche Vermischung, die Diskussion der ethischen Themen mit Beispielen aus der SF ist für uns denkbar. Die Bücherhallen haben sich in dieser Hinsicht für neue Ideen und Konzepte sehr offen gezeigt.

Lesetisch “tekethics” bei “Open Your MINT” in der Zentralbibliothek. Quelle: Axel Dürkop (CC-BY-SA)

Material zur Veranstaltung

tekethics

Weiterführende Links und ein OER-Booklet zum Lernarrangement tekethics sind auf der Homepage des Projekts zu finden.

Specht, P. (2018). Die 50 wichtigsten Themen der Digitalisierung: künstliche Intelligenz, Blockchain, Bitcoin, Virtual Reality und vieles mehr verständlich erklärt (3. Auflage). München: REDLINE Verlag.

SciFiVisions

Weiterführende Links und ein OER-Booklet zum Lernarrangement SciFiVisions sind auf der Homepage des Projekts zu finden.

Dieser Beitrag wurde verfasst von Axel Dürkop und Lars Schmeink.

Weitere Beiträge

SeaPiaC

SeaPiaC

The aim of the project is to create a digital collaborative learning environment in which students of TUHH and NCKU collaborate on challenges of sustainable nature-based coastal protection in times of a changing climate.

]]>
Docker: digitale Lernumgebungen mit einem Klick https://insights.tuhh.de/de/blog/tools/2018/11/08/docker-digitale-lernumgebungen-mit-einem-klick/ Thu, 08 Nov 2018 15:35:39 +0000 https://insights.tuhh.de/?p=14563

Docker ist eine moderne Form, Softwareanwendungen in virtuellen Containern auszuführen. Die Vorteile dieser Technik sind so zahlreich, dass Docker die IT-Welt im Sturm erobert hat (vgl. Vaughan-Nichols, 2018) und seit 2016 auch die TUHH.

Die Geschichte von Docker an der TUHH beginnt mit der Hamburg Open Online University (HOOU). Mittelfristiges Ziel des Großprojektes war es 2016, eine Lernplattform zu entwickeln, auf der die Lernarrangements der sechs staatlichen Hochschulen Hamburgs zum Mitmachen bereitgestellt werden sollten. Bis zur Fertigstellung der Plattform war jede Hochschule aufgefordert, die Ideen der Lehrenden “mit Bordmitteln” umzusetzen, mit vorhandenen Tools und aus der bisherigen Erfahrung mit E-Learning-Angeboten heraus. Die TUHH hat diesen Moment genutzt, um in ihrem wachsenden digitalen Experimentierfeld einige neue Technologien und Praktiken zu erproben und in den Kontext von Forschung und Lehre zu transferieren.

Die Motivation, Docker zu nutzen, entsprang zunächst einer praktischen Analyse der Software Sandstorm. Diese einzusetzen erschien aus zweierlei Gründen als technische Basis für die HOOU an der TUHH sinnvoll:

  • Sandstorm ist freie Software und kann in Hochschulrechenzentren installiert werden.
  • Sandstorm virtualisiert die verschiedenen Applikationen intern, erfordert also keinen dedizierten Rechner pro Anwendung.
  • Sandstorm integriert eine Vielzahl von so genannten Web-2.0-Tools, die Anwender_innen unter einer einzigen Anmeldung zusammenziehen können.

Gerade aus dem dritten Grund schien Sandstorm bestens geeignet, die Grundlage für individuelle webgestützte Lernarrangements zu stellen. An der TUHH setzten wir Sandstorm in einer Entwicklungsumgebung auf und teilten unsere gewonnenen Erfahrungen mit den Kolleg_innen aus dem HOOU-Team. Begrüßt wurde die Übersicht der verschiedenen Typen von Anwendungen, die es als freie und quelloffene Software gab. Das Potenzial wurde auch darin gesehen, dass der App Market von Sandstorm und die einfache Inbetriebnahme der Applikationen vielen Lehrenden helfen würde, neue Anwendungen und Anwendungstypen kennenzulernen und auf neue und individuelle Ideen für ihre Lernarrangements zu kommen (vgl. Abb. 1).

Abb. 1: Eine Auswahl von Apps in Sandstorm. Quelle: Übersichtsansicht auf dem App Market von Sandstorm

Aus der Perspektive der Administration und Wartung allerdings erschien uns Sandstorm zu sehr als Blackbox, deren Innenleben wir nicht wirklich kontrollieren konnten. Auch war das technische Konzept der “Verpackung” von Anwendungen für Sandstorm, die Virtualisierung über Vagrant, zu umständlich, um die Entwicklungsgeschwindigkeit und Anpassbarkeit zu erreichen, die uns vorschwebte. Zudem war nicht klar, ob das Geschäftsmodell von Sandstorm langfristig tragen würde (vgl. Abschnitt “Chancen und Herausforderungen von Docker”). Sandstorm hatte uns inspiriert, aber nicht zufriedengestellt.

Schnelle Experimente, die nichts kosten: Auftritt Docker

Was wir an Sandstorm sehr mochten, war die Möglichkeit, Lehrenden beliebte Apps für jeden Zweck quasi per Knopfdruck zur Verfügung zu stellen bzw. wenig Aufwand treiben zu müssen, um ihnen ihre Wünsche zu erfüllen. Wir wollten auch den Aspekt bewahren, dass sich Einsteiger_innen in der webgestützten Lehre über mögliche Applikationen durch praktische Erfahrungen informieren können.

Uns war bekannt, dass Docker weltweit einen fulminanten Siegeszug angetreten hatte, weil es schlanke und schnelle Virtualisierungen ermöglichte. Bauanleitungen für Softwareanwendungen und Dienste lassen sich mit Docker in einer einzigen Datei, dem Dockerfile, festhalten. Aus dem Dockerfile wird dann ein Image erstellt, durch das beliebig viele Container gestartet werden können, in der die verpackte Anwendung läuft. In einer weiteren Datei docker-compose.yml lässt sich definieren, wie notwendige Dienste einer Anwendung miteinander kombiniert und konfiguriert werden können (vgl. Öggl & Kofler, 2018 sowie die Docker-Homepage).

Allerdings ist es zunächst gar nicht notwendig, sich mit diesen tiefergehenden technischen Themen auseinanderzusetzen. Auf dem Docker Hub liegen zahlreiche Images zum freien Ausprobieren vor, von denen in der Regel mit einem Befehl wie

docker run --name tuhh-wordpress --link tuhh-mysql:mysql -d wordpress

ein Container gestartet werden kann.

Mit Docker wird die Zugangsbarriere zu komplexen Anwendungen, Diensten und Systemen noch weiter gesenkt, denn auf dem Docker Hub liegen zahlreiche Images zum freien Ausprobieren vor. Die Bequemlichkeit, mit einem Klick eine solche Anwendung zu starten, wird damit jedoch noch nicht erreicht. Dieses Ziel vor Augen, probierten wir weitere Einsatzmöglichkeiten von Docker in Forschung und Lehre aus.

Docker in der Entwicklung freier Bildungsmaterialien (OER)

Im Zentrum der HOOU steht der Diskurs um die Zugänglichkeit von Bildungsmaterialien, an dem sich die TUHH von Beginn an mit technischen Experimenten beteiligt hat (vgl. Dürkop, 2016). In dem Konzept von Markdown, statischen Websitegeneratoren und GitLab kam Docker anfangs noch gar nicht vor. Wir fanden aber schnell heraus, dass das integrative Konzept von GitLab die Einbindung von Docker Images in Pipelines zuließ. Damit konnten wir so ziemlich jedes digitale (Bildungs)artefakt online bauen! Wie diese Art, Bildungsmaterialien zu entwickeln, auch im Team stattfinden kann, wird in diesem Blog und in Dürkop & Ladwig (2018) beschrieben.

Docker in der Softwareentwicklung

Da Docker eigentlich aus der Softwareentwicklung kommt, fanden wir es angezeigt, hier auch zu probieren, was möglich ist. Das HOOU-Projekt Hop-on nahmen wir zum Anlass, um noch einen Schritt weiterzugehen. Als Softwarebasis verwendeten wir das Python Webframework Django und bauten eine ensprechende Pipeline in GitLab, an deren Ende stets eine lauffähige Webanwendung stand. Darüber hinausgehend experimentierten wir mit dem Feature Review Apps in GitLab. Damit ist es möglich, von jedem Entwicklungszweig (branch) im Projekt eine eigene Vorschau zu erzeugen. Das Potenzial dieser Funktion ist enorm: Beiträge, ob bei Texten oder Software, können in großen und kleinen Entwicklungsschritten begutachtet werden, bevor sie in den produktiven Zweig aufgenommen werden. Damit ergeben sich im Kontext des wissenschaftlichen Schreibens Möglichkeiten des Peer Reviews. In der Softwareentwicklung können Entwickler_innen und Endanwender_innen überprüfen, ob entwickelt wurde, was sie sich vorgestellt hatten, und direkt aus dem provisorischen Artefakt lernen. Review Apps verhalten sich zum Quellcode wie Musik zur Notenschrift: Ob eine Komposition gelungen ist, lässt sich besser durch das Hören der Noten überprüfen als durch deren Lektüre.

Docker in der Forschung

Docker spielt aber nicht nur in der Lehre seine Stärken aus, sondern kann auch in der Forschung Potenziale entfalten. So zeigt der Tweet in Abb. 2, wie sich Forschungsdaten und komplexe Anwendungen in einem Docker-Image bündeln lassen.

Abb. 2: Kommando zum selbständigen Explorieren der Panama Papers bei Twitter. Quelle: https://twitter.com/altfatterz/status/778981775796305920

Mit der Eingabe von docker run -p 7474:7474 ryguyrg/neo4j-panama-papers werden die Daten des International Consortium of Investigative Journalists heruntergeladen und in einer neo4j-Graphdatenbank zum selbständigen Explorieren bereitgestellt (vgl. Abb. 3).

 

Abb. 3: Browserinterface von neo4j. Quelle: Screenshot der Anwendung

Docker kann also helfen, Daten, die eine hohe gesellschaftliche Relevanz haben, zusammen mit den Werkzeugen, die zu deren Verständnis notwendig sind, zugänglich und transparent zu machen. Im Sinne von Open Science, wie wir sie an der TUHH verstehen, können mit Docker Forschungsergebnisse samt Anwendung verteilt und so nachvollziehbar und reproduzierbar gemacht werden.

Chancen und Herausforderungen von Docker

Docker hat sich an der TUHH bewährt. Die Virtualisierungslösung erlaubt es, hoch automatisiert und kosteneffizient Anwendungen für Forschung und Lehre zu verpacken und sowohl experimentell als auch produktiv zu betreiben. Dabei sehen wir im Kern folgende Vorteile:

  • Bauanleitungen für Docker (Dockerfile, docker-compose.yml) sind versionierbar und im Sinne von “Rezepten” teil- und tauschbar, z.B. wenn sie in GitLab veröffentlicht werden.
  • Anwendungen, die im Lehr- und Forschungsbetrieb oft als dedizierte Instanz gebraucht werden, können mit allen notwendigen und sinnvollen Konfigurationen in einem Image verpackt werden. Ein prominentes Beispiel ist WordPress, das häufig für das Lernmanagement eingesetzt wird oder als Portfoliolösung dient (vgl. z.B. van den Berk & Tan, 2013).
  • Durch Befehle wie docker-compose up können komplexe Anwendungen auch von weniger IT-affinen Menschen gestartet und verwendet werden.
  • Docker Container können flexibel in automatisierte Entwicklungsprozesse von OER und Software eingebunden werden.
  • In der Forschung können Daten zusammen mit Anwendungen verpackt und verteilt werden, vgl. das Beispiel der Panama Papers.
  • Viele Anwendungen, die in der webgestützten Lehre Sinn machen, liegen zum Experimentieren auf dem Docker Hub.

Eine Herausforderung stellt nach wie vor die konzeptionelle Komplexität von Docker dar. Wenn ein Container nicht gleich hochfährt, ist ein tieferes Verständnis der technischen Hintergründe nötig, um hier mögliche Fehler zu beheben. Im produktiven Betrieb von Docker, vor allem im Zusammenspiel mit GitLab, haben wir in der Anfangszeit viel über Speicher- und Resourcenbedarfe gelernt.

Ausblick

Unsere Begeisterung für Docker an der TUHH hält an, obwohl wir ein Ziel noch nicht erreicht haben: digitale Lernumgebungen per Klick bereitstellen zu können. Hier evaluiert das Rechenzentrum gerade verschiedene freie und quelloffene Produkte wie Rancher und Portainer, um herauszufinden, ob die Administration von technischen Lernumgebungen auf Dockerbasis auch in den Händen von Lehrenden liegen kann.

Das wir Sandstorm damals nicht weiter verfolgt haben, bereuen wir nicht. Ein aktueller Beitrag im Projektblog deutet darauf hin, dass das Geschäftsmodell des crowdgefundeten Produkts nicht nachhaltig ist. Aus diesem Grund sehen wir uns in dem Ansatz bestärkt, Dienste für die webgestützte Lehre und Forschung modular aus handhabbaren Einzelteilen zusammenzubauen. Die Flexibilität, die wir dadurch gewinnen, hat sich in vergangenen Projekten als Vorteil erwiesen.

Referenzen

van den Berk, I. & Tan, W.-H. (2013). Das wissenschaftlich-akademische E-Portfolio in der Studieneingangsphase (Medien in der Wissenschaft). In C. Bremer & D. Krömker (Hrsg.), E-Learning zwischen Vision und Alltag (Band 64, S. 219–229). Münster.

Dürkop, A. (2016, April 28). Entwicklung einer offenen technischen Infrastruktur für HOOU-Lernarrangements an der TUHH. Hamburg Open Online University. Projektblog. Zugriff am 16.6.2018. Verfügbar unter: https://doi.org/10.15480/882.1649

Dürkop, A. & Ladwig, T. (2018). Kollaborativ schreiben mit GitLab. In Markdown & Pandoc (2. Auflage, S. 196–205). Graz: ebooks.kofler.

Öggl, B. & Kofler, M. (2018). Docker: das Praxisbuch für Entwickler und DevOps-Teams (Rheinwerk Computing). Bonn: Rheinwerk Verlag.

Vaughan-Nichols, S. J. (2018, März 21). What is Docker and why is it so darn popular? ZDNet. Zugriff am 5.11.2018. Verfügbar unter: https://www.zdnet.com/article/what-is-docker-and-why-is-it-so-darn-popular/

Dieser Beitrag wurde verfasst von Axel Dürkop, Andreas Böttger und Tina Ladwig.

]]>
GitLab: kollaborativ und interdisziplinär die digitale Zukunft gestalten https://insights.tuhh.de/de/blog/tools/2018/11/04/kollaborativ-und-interdisziplinaer-die-digitale-zukunft-gestalten/ Sun, 04 Nov 2018 00:27:05 +0000 https://insights.tuhh.de/?p=14556

Der Einfluss von Software auf unsere Lebens- und Arbeitswelt wird immer deutlicher wahrnehmbar und verstärkt sich zusehends. So besteht bspw. das Internet, wie wir es heute in Form des World Wide Web hauptsächlich verwenden, nicht mehr nur aus statischen Webseiten, sondern aus komplexen Applikationen wie Shops oder sozialen Netzwerken. Auf unseren Mobiltelefonen befinden sich Apps, mit denen wir ständig interagieren und Daten austauschen, technische Geräte wie Waschmaschinen, Autos, Fahrkartenautomaten und Fernseher funktionieren nicht mehr ohne Software.

Software entsteht in interdisziplinärer Teamarbeit

U.a. aus diesem Grund ist eine oft gehörte Forderung dieser Tage, dass Menschen früh das Programmieren lernen sollten, um später in der Arbeitswelt bestehen zu können und besser zu verstehen, wie die Welt um uns herum funktioniert. Auch wenn diese Forderung vielleicht berechtigt ist und Grundkenntnisse der Softwareentwicklung in digitalen Zeiten nicht schaden können, liegt der eigentliche Kern der Sache woanders: Moderne Softwareanwendungen bestehen nicht nur aus dem Quellcode, der sie antreibt. Sie enthalten Informationen in Form von (bewegten) Bildern, Tönen, Texten und Daten, die erstellt und in die Anwendung integriert werden müssen. Häufig müssen die Anwendungen auch noch in zahlreiche weitere Sprachen übersetzt werden. Diese Aufgaben verteilen sich im Entwicklungsprozess von Software in der Regel auf ganz unterschiedliche Personen, Berufe und Professionen, und am Ende kommt ein multimediales digitales Produkt heraus, das durch Programmcode zusammengehalten wird und seine interne Logik und Funktionsweise erhält.

Was in diesem Sinne für Software gilt, ist auch auf digitale Medien allgemein übertragbar. Bücher sind heute zunächst immer digital vorhanden, auch wenn sie in einem letzten Schritt auf Papier gedruckt werden. Lehr-/Lernmaterialien in Form von PDF-Dokumenten, Webseiten oder Infografiken entstehen in der Regel durch Viele, die gemeinsam an einem Produkt arbeiten und ihren professionellen Teil dazu beitragen. Für eine technische Hochschule ist es daher nicht nur wichtig, das Programmieren zu lehren. Es ist heute ebenso wichtig, mit den Tools und Workflows vertraut zu machen, die Kollaboration und Teamarbeit an digitalen Artefakten erst ermöglichen. Software – und damit auch die Welt, in der wir in Zukunft leben werden – entsteht in interdisziplinärer Teamarbeit.

Daher sei an dieser Stelle die These gewagt, dass nicht jede und jeder unbedingt programmieren können muss. Wichtiger ist die Kenntnis von Kollaborationstools und -workflows, da sie auch nichtprogrammierende Menschen in die Lage versetzt, die digitale Zukunft mitzugestalten und sich aus seiner Profession heraus an digitalen Projekten beteiligen zu können. An der TUHH ebnen wir mit einer hauseigenen weltöffentlichen GitLab-Instanz dieser Kompetenzförderung den Weg.

Von der Open-Source-Bewegung lernen

GitLab ist eine Software zur dezentralen Zusammenarbeit an textbasierten digitalen Artefakten. Das bedeutet, dass Menschen weltweit verteilt, aber dennoch gemeinsam an Software, Webseiten, Texten und Datensammlungen arbeiten können. Sie müssen sich dazu nicht einmal persönlich kennen oder sehen und können doch Großes vereint zustande bringen. Diese Form der Kollaboration ist aus der Open-Source-Bewegung entstanden und erhielt 2005 neuen Schwung durch die Veröffentlichung von Git, einem Tool zur Verwaltung von Zwischenständen im Entwicklungsprozess von Software. Zu dieser Zeit war der Kollaborationsaspekt von Git noch nicht sehr ausgereift. Als 2008 das amerikanische Unternehmen GitHub mit seiner gleichnamigen Webplattform zum gemeinsamen Arbeiten an Code auf den Markt trat, veränderte sich die Entwicklungskultur der Open-Source-Gemeinschaft entscheidend: Durch den Mechanismus des Forkens ist es nicht mehr wie zuvor nötig, das Vertrauen einer Projektcommunity zu gewinnen, um Code beisteuern zu dürfen. Man fertigt nun online eine Kopie des Quellcodes an, verbessert ihn und stellt dann einen pull request an die Urheber_innen, mit dem diese aufgefordert werden, den Beitrag zu integrieren. Diesem Feature der Plattform ist es zuzuschreiben, dass sich die Entwicklung großer und kleiner Softwareprojekte im Open-Source-Umfeld rasant beschleunigte.

Die TUHH hostet eine eigene GitLab-Instanz

Für eine Hochschule stellt sich die Frage, ob die systematische Förderung von Kollaboration und Teamarbeit auf der proprietären Plattform GitHub im amerikanischen Rechtsraum strategisch klug ist. Rechtliche Aspekte in verschiedener Hinsicht sowie die Abhängigkeit von sich wandelnden Geschäftsmodellen im Startup-Sektor legen nahe, Alternativen im Bereich freier und quelloffener Software zu suchen. Aus diesen Gründen hat sich die TUHH entschieden, Kollaboration und Teamarbeit im skizzierten Sinne mit GitLab zu betreiben und aktiv zu fördern.

Seit dem 17. November 2016 hostet das Rechenzentrum der TUHH eine eigene GitLab-Instanz in der Community Edition. Der Prozess bis dahin ist eng verwoben mit dem HOOU-Projekt an der TUHH, in dem wir mit GitLab die ganzheitliche Entwicklung von Open Educational Resources (OER) implementiert haben. Am Prozess der Einrichtung und Bereitstellung des Dienstes waren und sind viele Akteur_innen der TUHH beteiligt, die gemeinsam daran arbeiteten, den Dienst weltöffentlich für alle Interessierten online zu stellen. Nichts Geringeres als interdisziplinäre und internationale Forschungs- und Lehrkooperationen sind das Ziel des öffentlichen GitLabs der TUHH. GitLab ist für viele Institute der Hochschule zu einem zentralen Werkzeug der Zusammenarbeit geworden, wir zählen bis heute über 1000 registrierte Nutzer_innen und entwickeln fortlaufend neue Ideen zum Einsatz in Forschung, Lehre und Projektmanagement.

Der Prozess bringt Akteur_innen näher zusammen

Darüber hinausgehend hat der Prozess der Einrichtung von GitLab viele Angehörige der TUHH in der Diskussion über die Digitalisierungsstrategie der Hochschule näher zusammengebracht. U.a. wurde die Arbeitsgruppe openTUHH gegründet, in der sich die Diskurse Open Education, Open Science und Open Access bündeln. Sie werden von verschiedenen Instituten, der TUHH-Bibliothek, dem Rechenzentrum und dem Präsidium verfolgt und gestaltet. Die Zusammenarbeit mit dem Datenschutzbeauftragten der TUHH hat dazu geführt, den Dienst von Anfang an sicher im Angebot der Hochschule zu verankern und alle Akteur_innen für die Anforderungen an Sicherheit, Datenschutz und verschiedene rechtliche Aspekte zu sensibilisieren. Schließlich hat sich eine monatliche Arbeitsgruppe zu GitLab herausgebildet, in der die Wünsche und Anforderungen der Nutzer_innen reflektiert werden, um die Nutzungsmöglichkeiten entsprechend anzupassen.

Zusammenfassung

Zu diesem Zeitpunkt können wir festhalten, dass GitLab mit seinen vielen technischen Möglichkeiten zahlreiche Nutzer_innen an der TUHH begeistert. Zudem zeigt der Prozess der Einrichtung und Bereitstellung, welche positiven Effekte sich auf verschiedenen Ebenen innerhalb der eigenen Hochschule ergeben können. In den zahlreichen Projekten, die wir bisher mit GitLab durchgeführt haben, haben sich Menschen mit unterschiedlichen Hintergründen, Erfahrungen und Kenntnissen produktive Teams gebildet, die gemeinsam freie Software und offene Bildungsressourcen entwickeln können.

Weitere Artikel zum Thema in diesem Blog

GitLab kam bisher in einer Reihe verschiedener Projekte zum Einsatz, die in den folgenden Beiträgen weiter ausgeführt werden:

Dieser Beitrag wurde verfasst von Axel Dürkop.

]]>
GitLab als CMS einsetzen https://insights.tuhh.de/de/blog/tutorials/2018/10/04/gitlab-als-cms-einsetzen/ Thu, 04 Oct 2018 09:06:51 +0000 https://insights.tuhh.de/?p=14807

Ziel dieses Tutorials

Das folgende Tutorial zeigt, wie ein GitLab-Projekt für das gemeinsame Schreiben eines Textes eingerichtet und GitLab im Sinne eines Content Management Systems (CMS) genutzt werden kann. Die Autor_innen erhalten immer ein fertiges PDF bzw. LibreOffice-Dokument, wenn sie in GitLab einen Text schreiben bzw. ändern.

Idee und Motivation

Tools und Plattformen für die gemeinsame Arbeit an Texten gibt es mittlerweile einige: GoogleDocs, Etherpads und Hackpads sind hierbei sicherlich die bekanntesten, Lösungen im Rahmen der bekannten Office-Suiten ergänzen das Spektrum.

Neben diesen vielen Möglichkeiten gehen wir an der TUHH noch einen anderen Weg beim kollaborativen Schreiben, indem wir GitLab im Sinne eines Content Management Systems (CMS) einsetzen. Motiviert ist dieser Ansatz dadurch, dass wir auch Menschen, die nicht programmieren, an partizipative und kollaborative Prozesse im Netz heranzuführen möchten, an deren Ende ein digitales Artefakt steht. Diese können in ausführbarer Software, in kompletten Webseiten oder auch nur in Textdokumenten bestehen. Mit dem kleinsten gemeinsamen Nenner, dem Schreiben, wollen wir alle an der gleichen Stelle abholen und den Grundstein für eine interdisziplinäre Zusammenarbeit legen.

Voraussetzungen

Los geht’s!

Anlegen eines neuen Projekts und der Beispieldateien1

Zunächst legen wir in GitLab ein neues Projekt an. Dabei ist nichts Besonderes zu beachten. Nun erstellen wir drei neue Markdown-Dokumente mit Beispieltexten, einleitung.md, hauptteil.md und schluss.md. Das Tutorial funktioniert auch mit einer einzigen Datei, wir wollen aber schon an dieser Stelle die Zusammenarbeit mit mehreren vorbereiten. So könnten unterschiedliche Autor_innen für einzelne Teile bzw. Dateien in einem größeren Text- oder Softwareprojekt zuständig sein.

Die README.md wurde beim Anlegen des Projekts erstellt. Die Blindtexte stammen aus dem Blindtextgenerator. Wichtig: Die Dokumente sollten eine Leerzeile vor der ersten Überschrift enthalten, damit die Markdowndateien bei Zusammenfügen richtig erkannt werden.2

Unser Repository nach dem Anlegen von drei Beispieldateien in Markdown

Artefakte erzeugen: PDF- und LibreOffice-Dokumente

Ziel des nächsten Schrittes ist es, aus dem “Quellcode”, also unseren Markdowntexten, ein PDF bzw. LibreOffice-Dokument zu erstellen. Dieser Vorgang steht stellvertretend für einen Prozess, der continuous integration genannt wird und sich mittlerweile in der Softwareentwicklung etabliert hat. Kurz gesagt bedeutet er, dass neue Beiträge zum Quellcode kontinuierlich in das Gesamtprodukt einfließen und nach kurzer Zeit immer ein verbessertes und funktionsfähiges Produkt zur Verfügung steht.

Was wir in den folgenden Schritten tun, ist demnach nicht nur für den beschränkten Rahmen dieses Tutorials relevant. Vielmehr handelt es sich um Wissen, durch das die Mitarbeit auch in komplexeren Projekten möglich ist. Also – weiter!

Die Zutaten

Wir brauchen für nun folgenden Schritte vier Zutaten:

  • pandoc, ein kommandozeilenbasiertes Konvertierungstool, das aus unseren Markdowndateien die Zieldateien generiert
  • Docker, eine schlanke Virtualisierungslösung, die uns Container mit pandoc zur Verfügung stellen soll. In diesen Containern werden online unsere Zieldateien generiert.
  • einen GitLab Runner. Dabei handelt es sich um ein Programm, das wir beauftragen können, etwas ganz Bestimmtes für uns zu tun, wenn bestimmte Ereignisse eintreten. Es wird dafür sorgen, dass bei jeder Änderung einer Markdowndatei ein Dockercontainer gestartet wird, in dem mit pandoc die Zieldateien generiert werden.
  • eine Datei .gitlab-ci.yml, in der die bisherigen Zutaten entsprechend konfiguriert werden.

Die Konfiguration der Pipeline

Um continuous integration für unser Beispiel zu konfigurieren, verwenden wir die folgende .gitlab-ci.yml-Datei. Sie ist im Hauptverzeichnis unseres Repos anzulegen.3 In der offiziellen Dokumentation ist sehr ausführlich beschrieben, was hier noch zu welchem Zweck eingestellt werden kann.

image: marcelhuberfoo/pandoc-gitit

build:
  script:
    - pandoc *.md -o bericht.pdf 
    - pandoc *.md -o bericht.odt
  artifacts:
    paths:
      - "*.pdf"
      - "*.odt"

In der ersten Zeile steht, welches Dockerimage wir verwenden wollen. Das angegebene funktioniert gut, baut allerdings noch nicht auf der aktuellen Version 2.0 von pandoc auf. Es liegt bei Dockerhub und kann auch gegen andere oder eigene Images ausgetauscht werden.

In den restlichen Zeilen ist angegeben, welches Kommando in dem Dockercontainer ausgeführt werden soll, der jedes Mal vom GitLab Runner gestartet wird, um unsere Dokumente zu bauen.

Dabei sorgen die Zeilen

- pandoc *.md -o bericht.pdf 
- pandoc *.md -o bericht.odt

dafür, dass aus allen Markdowndateien im Verzeichnis die finalen Dokumente gebaut werden. Die Reihenfolge, in der wir die sie aneinanderhängen, ergibt sich aus der Nummerierung im Dateinamen.4

Das angegebene Dockerimage enthält eine lauffähige Version von pandoc, sodass wir den Befehl pandoc mit entsprechenden Parametern hier geben können. Wir tun dies zweimal, um die beiden verschiedenen Dokumentformate zu erhalten.

In dem Block, der mit artifacts überschrieben ist, sagen wir, dass wir die Endprodukte der Pipeline, also das, was generiert wurde, behalten möchten. Der Dockercontainer schiebt dann diese Artefakte zurück in unsere GitLab-Projekt, wo wir sie herunterladen können.

Pipelines

Pipelines sind in GitLab definierte Abläufe, in denen verschiedene Stadien eines Bauvorgangs oder auch build process nacheinander und parallel abgearbeitet werden. Unsere Pipeline hier ist sehr einfach aufgebaut, sie hat genau eine Stufe (stage), die in der .gitlab-ci.yml mit build benannt ist.

Nachdem wir unsere .gitlab-ci.yml angelegt haben, versucht GitLab die Konfiguration darin abzuarbeiten. Das gelingt noch nicht gleich, wie wir unter CI/CD -> Pipelines sehen können.

Die Pipeline nach dem Anlegen der Konfigurationsdatei. Sie bleibt momentan noch stecken.

Ein Klick auf das Label Pending führt zu einer nächsten Seite, die den Aufbau der Pipeline genauer darstellt. Hier taucht der Name unserer einzigen Stufe (stage) auf.

Detaillierte Darstellung der Pipeline

Ein weiterer Klick auf das Label build zeigt uns, woran es liegt:

Damit die Pipeline läuft, muss noch ein Runner zugewiesen werden

Wir haben noch keinen Runner für unser Projekt zugewiesen, der für unsere Pipeline zuständig ist. Wenn wir dem Link in der Meldung, Runners Page, folgen, können wir dies nachholen.

Den GitLab Runner zuweisen

GitLab Runner sind dafür zuständig, Jobs für uns zu erledigen. Sie können auf unterschiedliche Weise konfiguriert werden, was in der offiziellen Dokumentation von GitLab ausführlich beschrieben wird.

Im GitLab der TUHH stehen momentan zwei Runner zur Verfügung, die von Nutzer_innen der Instanz verwendet werden können. Unter Settings -> CI/CD -> Runners können diese geteilten Runner mit einem Klick auf Enable shared Runners aktiviert werden.

Aktivierung der Shared Runner

Ein erneuter Blick auf die Übersicht der laufenden Pipelines über CI/CD -> Pipelines zeigt, dass nach einer Weile unsere Pipeline abgearbeitet wird.

Erfolgreiche Pipeline

Ein Klick auf die Label Passed und auf der folgenden Seite auf build zeigt, was stattgefunden hat:

Logausgabe des Jobs

Unser GitLab-Runner auf flint2 zieht sich das angegebene Dockerimage marcelhuberfoo/pandoc-gitit und startet darauf einen eigenen Container. In den Container, den man sich als schlanke virtuelle Maschine vorstellen kann, clont der Runner nun den Inhalt unseres Repositorys und damit auch die drei Markdowndateien.

Anschließend lässt er auf den Dateien des Repositorys die Befehle laufen, die wir in der .gitlab-ci.yml angegeben haben, um letztlich die generierten Artefakte aus dem Container wieder in GitLab hochzuladen. Der Container hat nun seinen Dienst erfüllt und wird gelöscht, die Pipeline ist erfolgreich durchgelaufen. Aber wo sind jetzt unsere Dateien?

Zugriff auf die Artefakte

Auf die generierten Artefakte kann an verschiedenen Stellen zugegriffen werden.

Artefakte, die zum Job gehören

Artefakte, die in einem speziellen Job erzeugt wurden, können rechts neben dem Job Log über die Button Keep, Download und Browse gefunden werden (s. Screenshot oben).

Artefakte der letzten erfolgreichen Pipeline

Auf der Homepage des Projekts können die Artefakte der letzten erfolgreichen Pipeline heruntergeladen werden.

Die Artefakte an dieser Stelle stammen immer aus der letzten erfolgreich durchgelaufenen Pipeline.

Zusammenfassung und Ausblick

Wenn alles geklappt hat, sind wir nun in der Lage, mit mehreren Autor_innen an einem Textprojekt zu schreiben oder auch allein an einem größeren Projekt wie einer Qualifikationsarbeit oder einem Forschungsbericht.

Die Idee war, GitLab im Sinne eines CMS zu verwenden, um digitale Artefakte zu erzeugen. Der Content, den wir hier managen, sind die Markdowndateien, die Ausgabe erfolgt in einem PDF- bzw. LibreOffice-Dokument. In zukünftigen Tutorials werden wir uns ansehen, wie in dem gleichen Verfahren auch Webseiten gepflegt werden können. Der vorgestellte Ansatz ist übertragbar auf andere Szenarien und hat damit eine relativ große Reichweite. Mit anderen Worten: Es lohnt sich, die Lernkurve von GitLab zu erklimmen, weil es sich um sehr universelle Kenntnisse und Kompetenzen handelt.

Ausgehend von diesem Tutorial werden wir in Zukunft weitere Praktiken und Verfeinerungen betrachten. So ist es interessant zu sehen, wie das PDF-Dokument formatiert werden kann oder Bilder eingebunden werden können. Aber auch Workflows mit Fokus auf Kollaboration und Qualitätskontrolle sind zu betrachten.

  • Dürkop, A. & Ladwig, T. (2018). Kollaborativ schreiben mit GitLab. Markdown & Pandoc (2. Auflage, S. 196–205). Graz: ebooks.kofler.

  1. In der aktuellen Version von GitLab wird nach dem Anlegen eines neuen Projekts auch eine sogenannte Auto DevOps-Pipeline angelegt. Da wir diese nicht verwenden wollen, können wir sie über Settings -> CI/CD -> Auto DevOps deaktivieren, indem wir Default to Auto DevOps pipeline abwählen. Anschließend löschen wir noch unter CI/CD -> Pipelines die steckengebliebene erste Pipeline mit Klick auf den roten Button rechts.↩
  2. Der Grund dieser Vorsichtsmaßnahme ist, dass die meisten Editoren den letzen Umbruch eines Textdokuments löschen, um einen sauberen Abschluss zu haben. Damit ist aber die Raute (#) der folgenden Überschrift nicht mehr sauber vom vorhergehenden Text abgetrennt. Es kann auch \newpage vor der ersten Überschrift gesetzt werden, womit ein manueller Seitenumbruch erzeugt wird.↩
  3. Da es sich bei der .gitlab-ci.yml um das YAML-Format handelt, ist streng auf die korrekte Einrückung der Zeilen zu achten!↩
  4. Damit die README.md nicht auch in unser Dokument einfließt, benennen wir sie um in README.markdown. Dadurch wird sie immer noch als Markdowndatei von GitLab erkannt, aber wegen der anderen Dateiextension nicht mehr einbezogen.
    Das Umbenennen lässt sich erledigen, indem die README.md editiert wird und dann einen anderen Namen erhält.↩

Dieser Beitrag wurde verfasst von Axel Dürkop.

]]>
Hack[a|er]space an der TUHH https://insights.tuhh.de/de/blog/veranstaltungen/2018/08/21/hackaerspace-an-der-tuhh/ Tue, 21 Aug 2018 08:30:50 +0000 https://insights.tuhh.de/?p=14837

Im Rahmen des Projekts Hamburg Open Online University (HOOU) haben wir viele neue Tools ausprobiert und in den produktiven Betrieb überführt. Viele Mitarbeiter_innen der TUHH haben sich dabei Neues beigebracht und Erfahrungen gesammelt.

Um unsere neuen Erfahrungen und Kenntnisse, aber vor allem unsere Begeisterung mit anderen zu teilen und von anderen zu lernen, treffen wir uns seit einem halben Jahr wöchentlich zu einem Hack[a|er]space. Hacken verstehen wir als kreativen, positiven, lustvollen und angstfreien Umgang mit Technik. Dabei gilt Bring Your Own Device (BYOD), aber vor allem Own Your Brought Device (OYBD). BYOD bedeutet für uns, dass wir unsere Geräte, Programme, Probleme und Inspirationen an einen Ort mitbringen, an dem sich alle gegenseitig helfen und voneinander lernen. OYBD bedeutet, dass wir zu Erfinder_innen, Gestalter_innen und Entwickler_innen unserer digitalen Zukunft werden. Wir wollen die Technik, die uns umgibt, verstehen und zu unserem Vorteil nutzen lernen.

Neuigkeiten aus der HOOU

Ein Mal im Monat nutzen wir den Hack[a|er]space dazu, um aktuelle Entwicklungen und Neuigkeiten aus den Projekten der Hamburg Open Online University (HOOU) zu besprechen. Wer daran Interesse hat, ist eingeladen, eine halbe Stunde vorher zu erscheinen.

Wöchentliche Sessions

Der Hack[a|er]space findet jede Woche statt. Alle, die Interesse haben, sich mit einem technischen Thema auseinanderzusetzen oder nur mal schauen wollen, was dort passiert, sind willkommen. Die Community des Hack[a|er]space diskutiert im Netz in der Learning Community der TUHH. Wir bitten um eine kurze Anmeldung für eine Session, um die Zahl der Gummibärchentüten richtig einplanen zu können.

Ort und Zeit

Ort: TUHH, Am Irrgarten 3-9, 21073 Hamburg, Gebäude Q, 2. Stock
Raum: wird im Forum bekannt gegeben
Datum: mittwochs
Zeit: 13.00 bis 16.00 Uhr

Das Logo des Hacka|erspace. Design: Dodo Schielein
]]>