Navigation auf uzh.ch

Suche

Geschichte der Pädagogik an der Universität Zürich

Möglichkeiten und Grenzen digitaler Technologie (ICT) in Forschung und Lehre am Institut für Erziehungswissenschaft.

Interview mit Rebekka Horlacher (RH) und Urs Grob (UG) zu Fragen aus der IT-Koordination des Instituts, gestellt durch Christoph Wenger (CW).

Rebekka Horlacher und Urs Grob haben beide am IFE promoviert und sind langjährige Mitarbeitende des Instituts. Sie sind Mitglieder der Fachstelle Methoden des IFE und beraten Mitarbeitende und Doktorierende zu forschungsmethodischen Fragen. Rebekka Horlacher befasst sich mit historisch-textanalytischen Methoden und hat langjährige Editionserfahrung, Urs Grob ist spezialisiert auf quantitativ-statistische Methoden. In den Jahren 1997 bis 2000 war er nebenamtlicher IT-Koordinator des „Pädagogischen Instituts“.

Vor dem Hintergrund einer fortschreitenden Digitalisierung von Forschung und Lehre wird in diesem Interview über ihre Erfahrungen, Sichtweisen sowie die Grenzen in der Nutzung digitaler Werkzeuge gesprochen. Dabei wurden folgende Themenbereiche aufgegriffen (in dieser Reihenfolge im Interview):

  • Vernetzung und Kommunikation
  • Forschungsmethoden: Neue Möglichkeiten und Herausforderungen
  • Digitalisierung als Mittel zur methodenübergreifenden Kooperation
  • Wissenschaftliche Publikation und Recherche
  • Digitale Werkzeuge in der Lehre

 

CW (Christoph Wenger) 1986 wurde am Institut der erste Personalcomputer (PC) angeschafft. Welches sind Eurer Ansicht nach die grössten Veränderungen, die das Aufkommen des PCs in der täglichen Arbeit der Forschenden der Sozial- und Geisteswissenschaften herbeigeführt haben?

 

UG (Urs Grob) Mir fällt dazu spontan die Situation ein, als sich eine frühere Mitarbeiterin bei ihrer täglichen Arbeit filmen liess, um damit einen Einblick in die Tätigkeit einer Erziehungswissen­schaftlerin zu geben. Auf dem Video war vor allem zu sehen, wie sie am Schreibtisch sitzt und am Computer arbeitet. Mir scheint dieses Bild sehr bezeichnend: An der Universität in der Erziehungswissenschaft arbeitende Personen sitzen überwiegend am Schreibtisch und arbeiten am PC.

 

RH (Rebekka Horlacher) Ja, das sehe ich grundsätzlich ähnlich. Es fragt sich allerdings, ob es einen Unterschied macht, ob man mit der Schreibmaschine oder mit dem PC schreibt. Was sich sicher massiv verändert hat, sind die Kommunikationsgeschwindigkeit und die Kommunikationsmöglichkeiten. Veränderungen, die sekundär mit dem PC zusammenhängen, sind neue Zugänge zu und eine vereinfachte Verfügbarkeit von Quellen und neue Möglichkeiten, diese auszuwerten. Dies betrifft allerdings nicht unbedingt die tägliche Arbeit, wie man sie sieht, d.h. wie man am Schreibtisch sitzt sondern eine inhaltliche Bedeutung für Forschung und Lehre. Hier sind wohl die eigentlich grossen Veränderungen auszumachen. Wobei ich sagen würde, dass das für die Forschung nicht erst seit den 1980er-Jahren, sondern schon sehr viel früher, d.h. in den 1950er- und 1960-Jahren begonnen hat, als mit Grossrechnern grössere Datensätze bearbeitet werden konnten. Das gilt sowohl für Sozialwissenschaften, Geisteswissenschaften und auch für die historische Forschung – Daten sind ja nicht nur Zahlen.

 

UG Ein vernetzter Computer eröffnet heute enorme Möglichkeiten der Recherche und Verarbeitung wissenschaftlich relevanter Materialien. Und natürlich hat der PC die Möglichkeiten der Verarbeitung von Daten als Zahlen im engeren Sinne, wie das in meinen Arbeitsgebieten der Fall ist, stark erweitert. Wie selbstverständlich heute der schnelle Zugang zu wissenschaftlichen Texten ist, zeigt sich am Fremdheitserleben, wenn ich mich erinnere, wie ich für meine 1993 verfasste Lizentiatsarbeit auf eine per Fernleihe von einer amerikanischen Universität bestellte Dissertation fast 4 Wochen warten musste. Die Verfügbarkeit wissenschaftlicher Arbeiten in digitalisierter Form hat die Abläufe stark vereinfacht und beschleunigt. Es sind zudem komplett neue Möglichkeiten für Recherche-Zugriffe auf Volltexte entstanden, was früher undenkbar war.

 

RH Eine Gefahr dabei liegt in der Illusion, dass nur noch diejenigen „Daten“ existieren, die auch als digitaler Volltext vorhanden sind. Aber sehr viele Texte sind nicht (oder noch nicht) digital zugänglich. In Anbetracht des grossen Aufwandes, den Retrodigitalisierungen bedeuten, stellt sich die Frage, wie sinnvoll ein solches Projekt überhaupt ist bzw. wann Bibliotheken und Fernleihe als physischer Zugang zu wissenschaftlichen Publikation obsolet werden – falls überhaupt.

 

UG Da unterscheiden sich unsere Arbeitsfelder bestimmt sehr stark. Methoden­literatur und Forschungsarbeiten, die für mich im Vordergrund stehen, sind heute in digitaler Form sehr einfach zugänglich – vermutlich eher als historische Texte, die vielleicht zuerst in kritischen Ausgaben aufgearbeitet werden.

 

RH Richtig, wobei hier auch „historische“ Forschungsliteratur eine Rolle spielt. Historische Forschung beschäftigt sich ja nicht nur mit „editionswürdigen“ Texten als Quellen sondern mit sämtlichen Überlieferungen. So kann beispielsweise Forschungsliteratur, auch wenn sie nicht mehr dem neuesten Forschungsstand entspricht, Gegenstand historischer Forschung werden. Gerade bei Edition zeigt es sich zudem, dass es nach wie vor einfacher und kostengünstiger ist – auch wenn das auf den ersten Blick nicht logisch erscheint – eine ganz klassische und gedruckte Edition mit aufbereiteten Texten und Quellen zu machen. Die Möglichkeiten, die eine digitale Edition bieten, sind natürlich interessant. Aber es ist eine sehr ressourcenintensive Arbeit und es ergeben sich ganz neue Herausforderungen, denen man sich stellen muss. Editieren unter digitalen Vorzeichen ist ein neues Handwerk geworden und verlangt Fähigkeiten, die man erst erlernen muss. Ich glaube, da haben viele noch nicht wirklich realisiert, wie auch noch einigermassen unklar ist, wie mit diesen Herausforderungen umzugehen ist: Was muss man können, was muss man investieren, welche Tools und Unterstützungen – auch institutionelle – braucht es?

 

 

CW Computer können Daten viel schneller und besser ordnen als menschliche Gehirne. Wie sieht das konkret in den Sozialwissenschaften und im Besonderen in der Erziehungswissenschaft aus?

 

UG Für quantitative Zugänge, die ich sowohl in der Forschung wie in der Beratung und in der Lehre vertrete, ist der PC in der Tat unverzichtbar. Im Verlauf meines Studiums der Erziehungswissenschaft Ende der Achziger-, Anfang der Neunzigerjahre waren Statistikapplikationen auf dem PC stark im Kommen – dank dezentraler Nutzung, flexibler Datenspeicherung und grafischen Ausgabemöglichkeiten. Zuvor liefen solche Programme nur auf Mainframe-Computern, die u.a. wegen der Job-Control-Language sehr umständlich zu nutzen waren. Die Möglichkeiten der Datenanalyse auf dem PC haben sich seither enorm erweitert. Beispielsweise kamen zu den etablierten Befragungsstudien, insbesondere in der Unterrichtsforschung, video­basierte Beobachtungsstudien hinzu. Sie schufen die Möglichkeit, Phänomene sehr genau und in Ruhe zu identifizieren und zu codieren, und zwar nicht wie bei einer teilnehmenden Beobachtung unter dem Druck, im Moment Entscheidungen für Codierungen fällen zu müssen. So wurden Daten zum komplexen Geschehen im Unterricht viel stärker objektivierbar und liessen sich valider erfassen.

Ein anderes Beispiel, das noch nicht so verbreitet ist, sind Studien, die versuchen, aus der künstlichen Situation von Befragungen näher an das Handeln in aktuellen Alltagszusammenhängen heranzukommen. Gemeint sind sogenannte Experience-Sampling-Studien, bei denen man Zielpersonen in zufälligen oder regelmässigen Abständen bittet, ihre Befindlichkeiten oder Gedanken zu ihrem aktuellen Erleben und Handeln z.B. in einer App auf einem Smartphone festzuhalten. Diese "Piepser-Studien" haben den Vorteil, dass die festgehaltenen Zustände nicht zeitlich abgekoppelt sind und dadurch bereits reflektiert und gefiltert geäussert werden, sondern dass damit im Moment unmittelbares Erleben oder Bewerten erfasst wird. Die so generierten Daten lassen sich dann mit anderen Beobachtungsdaten oder mit Befragungsdaten kombinieren und ermöglichen qualitativ neuartige Erkenntnisse, die ökologisch valider sind, weil sie stärker die konkreten Kontexte berücksichtigen.

 

RH Quantitative Forschung ist ja nicht nur etwas, das für die Gegenwarts- oder die Zustandserhebung tauglich ist, sondern was man auch in historischen Perspektiven verfolgen kann; ein berühmtes Beispiel ist die französische Geschichtsschreibung seit den 1950er-Jahren. Die Statistiken, die in dieser Tradition entstehen, haben andere Qualitätskriterien als Statistiken, die jetzt neu generiert werden. Man muss mit den Daten arbeiten, die vorhanden sind. Diese „seriellen Daten“ sind Daten aus Kirchenbüchern, Geburtsregistern usw., mit denen fundierte Aussagen zu historischen Entwicklungen über lange Zeiträume möglich werden. Bereits die Menge von Daten, die in solchen Analysen verarbeitetet werden, machen den PC als Hilfsinstrument notwendig. Man kann Reihen und Gruppierungen erstellen, was Forschungsmöglichkeiten eröffnet, die vorher so nicht vorhanden waren.

 

UG Faszinierend und aufschlussreich finde ich die Geschichte bestimmter statistischer Verfahren. Nehmen wir beispielsweise die Faktorenanalyse, die vor über hundert Jahren entwickelt wurde und heute mehr denn je unverzichtbar ist. In der ersten Hälfte des letzten Jahrhunderts bedeutete das Durchführen einer Faktorenanalyse, dass man stunden-, wenn nicht tagelang, und nur gerade von einem Rechenschieber unterstützt, rechnete. Die Rechenprinzipien der grundlegenden Verfahren sind heute noch dieselben, nur dass man heute bloss Bruchteile von Sekunden auf das Ergebnis warten muss. Damit lässt sich viel stärker interaktiv Modellentwicklung betreiben und man muss nicht davon zurückschrecken, Dinge nochmals offen anzugehen, weil der Aufwand zu gross wäre. Der PC hat das alles äusserst niederschwellig zur Verfügung gestellt. Ein Folgeproblem ist allerdings, dass die Qualitätssicherung zur Herausforderung wird. Wenn es möglich ist, ohne vertiefte Auseinandersetzung mit der Methodik durch das Drücken von Knöpfen auf dem Bildschirm Ergebnisse zu erhalten, die irgendwie interpretierbar sind, wenn also die angewendeten Verfahren mit ihren Voraus­setzungen und Grenzen nicht reflektiert werden, besteht ein beträchtliches Risiko überzogener oder falscher Schlussfolgerungen.

 

RH Die Methode schützt ja nicht davor, dass man sich zuerst theoretisch vergewissert, was und weshalb man etwas tut, und mit welchen Fragen man welche Antworten erwartet.

 

UG Das ist genau das, was Empirizismus im Negativen beschreibt: Indem man theoriefrei und methodisch unreflektiert an Dinge herangeht und meint, die Substanz des Gegenstandes unverzerrt erfassen zu können. Aber das ist eine Oberflächen­perspektive, bei der je nach implizit bleibenden Annahmen ganz andere Ergebnisse resultieren. Es gibt aktuelle Entwicklungen, die nochmals gesteigerten Rechenleistungen in den Dienst von brute-force Datenauswertungsstrategien zu stellen. Machine-Learning und Data-Mining sind jüngst boomende Verfahren. Diese sind genuin theoriefrei. Man sucht dabei Regelmässigkeiten in grossen Mengen hochkomplexer Daten – und findet sie. Aber man muss sich vor Augen führen, dass dies ein nicht nur theoriearmes, sondern theoriefreies Vorgehen ist, um dann nicht Fehlschlüsse wahrscheinlichkeitstheoretischer und inhaltlicher Art zu begehen. Das kann in einem reflektierten und begrenzten Sinn zu Beginn eines Forschungsprozesses legitim sein. Exploratives Arbeiten braucht es für Innovation, aber wenn dies die Theoriearbeit und ein reflektiertes, deduktives Vorgehen ersetzen würde, wäre das fatal. Die heute auf jedem PC verfügbare Rechenleistung verführt allerdings dazu, die Daten einfach mal zu screenen und zu schauen, was sich für Muster zeigen.

 

 

CW Welches wären typische Beispiele von Fragestellungen und damit einhergehenden Methoden, die erst möglich werden, weil wir sie mit Hilfe digitaler Unterstützung angehen können?

 

RH Digitale Unterstützung ist beispielsweise sehr hilfreich im Bereich der Netzwerkforschung. Man untersucht dabei ganze Beziehungsnetze, und das nicht nur zwischen zwei oder drei Personen, sondern zwischen ganzen Forschungsgemeinschaften oder grossen Personenverbänden. Da eröffnen computer­unterstützte Programme nicht nur Darstellungsmöglichkeiten, sondern eine grosse Menge Daten kann überhaupt erst sinnvoll verwaltet werden. Es fällt mir gerade als Beispiel eine Forschung ein, die in Bern zum Beziehungsnetz von Albrecht von Haller entstanden ist, einem Gelehrten des 18. Jahrhunderts, der tatsächlich in ganz Europa vernetzt war. Nicht nur sein persönliches Netzwerk sondern auch diejenigen seiner Korrespondenzpartner konnten anschaulich aufbereitet werden, indem man diese Korrespondenzen minutiös aufgearbeitet hat. Von Halle ausgehend: wer hat wann mit wem und wie korrespondiert? Das gibt ein Bild, das anders nicht hätte generieren werden können. Die Frage ist dann auch wieder: Was macht man mit diesen Daten? Das sind dann allerdings wieder Fragen nach Theorie und Interpretation in der weiteren Forschung.

 

UG Ich habe mich vorhin pointiert kritisch geäussert zu diesen explorativen Verfahren. Aber ich denke, es gibt Zusammenhänge in quantitativen Zugängen, wo das legitim ist, und darauf zu verzichten ein Fehler wäre. Generell ist es so, dass Computer helfen können, Muster zu erkennen, die den menschlichen Geist bzw. die menschliche Datenverarbeitungskapazität von der Datenmenge oder der Komplexität der Strukturen her überfordern. Eine beispielhafte Anwendung ist die schon erwähnte Faktorenanalyse, mittels der man hinter manifesten Daten die eigentlich verursachenden Einflussfaktoren identifizieren kann, indem man sie rechnerisch herausarbeitet. Dies zum Beispiel, wenn es darum geht, mittels Messinstrumenten Eigenschaften in möglichst reliabler und valider Weise zu erfassen, um wirklich diejenigen Merkmale zu erfassen, die man zu erfassen meint, und nicht eine Mischung aus ungeklärten Eigenschaften. Dafür ist das Auseinanderdividieren der verursachenden Faktoren mittels des rechnerischen Algorithmus der Faktorenanalyse äusserst wertvoll. Die Kompetenzmessung wäre ohne die Faktorenanalyse undenkbar, weil nur sie zeigt, ob hier wirklich eine kohärente Kompetenz gemessen wird oder aber ein Konglomerat von Merkmalen, die zu unterscheiden und trennen sinnvoll wäre.

 

RH Die theoretische Frage dahinter wäre dann: Ist Kompetenz überhaupt ein Konzept, das sich messen lässt? Aber auch das ist eine theoretische Frage, die sich nicht auf der empirischen und quantitativen Ebene beantworten lässt.

 

UG Nicht alleine, ja! Umgekehrt auch nicht nur theoretisch. Die Faktorenanalyse zeigt sehr schön, wie die Methodik die Theoriebildung beeinflussen kann, weil die Persönlichkeitspsychologie massgeblich von dieser Methode profitiert hat. Die Idee, Persönlichkeit in ihren reichen Facetten verlustarm vereinfachend, aber nicht übervereinfachend abzubilden, wurde durch das Verfahren der Faktorenanalyse vorangebracht. Modellvorstellungen wie z.B. das Fünffaktoren-Modell entstanden auch und gerade dank der Faktoren­analyse und der schnellen Berechnung mit Hilfe von Computern. Es gibt also eine nachzeichenbare Rückwirkung der Methoden auf die Theoriebildung. Unreflektiert wäre diese problematisch, aber reflektiert legitim und gewinnbringend.

 

CW Wie angesprochen entwickeln sich analytische Methoden immer weiter und werden verfeinert. Kann man im Zuge der Digitalisierung davon ausgehen, dass quantitative und qualitative Methoden in Forschungsarbeiten neue Ergänzungs­formen finden? Können da sogar neue Brücken geschlagen werden?

 

RH Ich glaube eher, dass es ein Problem ist, weil die Zahlen mehr und mehr eine grosse Faszination ausüben, sowohl für die Forschenden als auch für die Öffentlichkeit oder die Politik. Der Glaube an die Zahlen hat in den letzten 50 oder auch 100 Jahren stark zugenommen. Durch diese Dominanz der Zahlen sind die nicht ganz so zahlengläubigen anderen Wissenschaftszweige eher ins Hintertreffen geraten. Qualitativ Forschende rezipieren durchaus quantitative Forschung, aber umgekehrt ist es vielleicht etwas weniger verbreitet oder üblich. Ich stelle fest, dass alle möglichen Zugänge zu Forschung besser miteinander kommunizieren und voneinander lernen und in dem Sinne auch voneinander profitieren. Ich würde aber auch behaupten wollen, dass die (Bildungs-)politik stark auf empirische Daten quantitativer Art setzt. Das erzeugt einen Druck, gegen den nicht so einfach, und vor allem nicht in aller Kürze, zu argumentieren ist. Das Kommunizieren vermeintlich einfach zu verstehender Zahlen als politische Rezepte, ohne zu wissen, wie diese zustande gekommen sind, stellt ein Problem dar.

 

UG Ich teile die Einschätzung, dass es so etwas wie einen irrationalen Glauben an die Korrektheit von Zahlen gibt. Umgekehrt denke ich, dass es in Diskursen wichtig ist, sich auf einer gemeinsamen Basis zu verständigen. Ein Teil des Siegeszuges der Zahlen besteht darin, dass diese unabhängiger – aber nicht komplett unabhängig – von weltanschaulichen Grundpositionen sind, die Argumentationen von Beginn her einfärben und prägen können. Zwar lassen sich auch Zahlen bzw. Kennwerte instrumentalisieren, doch können sie eine wichtige Ankerfunktion haben, – obwohl auch ihnen ihre Bedeutung in sozialen Zusammenhängen verliehen wird. Ich teile die Einschätzung der Notwendigkeit von methodenübergreifenden Kooperationen, weil es nicht reicht, wenn sich Arbeitsgruppen auf den einen oder anderen Zugang spezialisieren. Stattdessen ist es wünschenswert, eine gemischte Zusammensetzung von Arbeitsgruppen zu haben, damit der Diskurs zwischen solchen grundsätzlichen Zugängen zur Realität sehr früh im Forschungsprozess einsetzt und bereits für die Produktion, und nicht erst bei der Rezeption von Forschungsergebnissen erfolgt. Das ist sicher gewinnbringender als getrennte Pfade.

Um jetzt nochmals auf die ursprüngliche Frage zurückzukommen: Ich sehe schon Möglichkeiten einer Annäherung: beispielsweise in Verfahren, die zwar explorativ, aber nicht theoriefrei sind, und die versuchen, in bestmöglicher Kenntnis des interessierenden Forschungsgegenstandes verborgende Eigenschaften sichtbar zu machen. Das fällt stärker mit dem zusammen, was mit dem Begriff eines personenzentrierten Zugangs in quantitativen Forschungszusammenhängen gefasst wird. Also, dass man nicht klassischerweise variablenzentriert Hypothesen zu Zusammenhängen oder Differenzen testet, sondern Verfahren nutzt, um vorfindbare Konfigurationen von Eigenschaften zu Typologien zu verdichten. Solche Typologien sind affiner zu qualitativen Herangehensweisen, weil sie darauf abzielen, über möglichst dichte Beschreibungen die Phänomene in ihrer Qualität fassbar zu machen. Genau das schafft stärkere Berührungspunkte zwischen quantitativen und qualitativen Zugängen, als das bei einem variablenzentrierten Zugang der Fall wäre.

 

RH Dichte Beschreibungen kommen ja nicht zufällig aus der Ethnographie.

 

 

CW Ihr habt eingangs des Gesprächs das Thema Forschung und Publikation bereits angesprochen. Neben der Veröffentlichung von Artikeln in gedruckten Forschungsjournals und in Buchform – welche digitalen Plattformen werden von Euch genutzt?

 

RH Das geschieht vielfach als Zweitnutzung über traditionelle Verlage, d.h. dass man sowohl in einer gedruckten Form als auch gleichzeitig in einer online-Version publiziert, sei es als E-Book oder in Journals, die auch online zugänglich sind. Dies geschieht teilweise OpenAccess, teilweise kostenpflichtig. Es ist aber nicht üblich, dass man nur über Plattformen wie ResearchGate oder ZORA publiziert. Diese bieten sich eher zur Sekundärnutzung schon vorhandener Publikationen an.

 

UG Ich denke, da sind Verlage und Fachzeitschriften, die Standards hochhalten und durchsetzen, nach wie vor unverzichtbar. Dabei halte ich die sekundäre Verfügbar­machung in digitaler Form für sehr wichtig, aber eben nicht unmittelbar. Betreffend ausschliessliche online-Publikation bin ich wegen der oftmals intransparenten oder unzureichenden Standards skeptisch. Ich erinnere ich mich nur an einen Fall, bei dem ich als Mitautor etwas in einem Onlinejournal publizierte.

Grundsätzlich sehr positiv schätze ich hingegen die Möglichkeit ein, Dissertationen online zu publizieren, welche vom Thema her zu speziell sind, um in eine Reihe eines Verlages hineinzukommen. Das ist kostensparend und stellt sicher, dass sie verfügbar sind und verzeichnet werden.

 

 

CW Wie muss man sich heute die Publikation von Artikeln bei OpenAccess-Verlagen vorstellen?

RH Es gibt grundsätzlich zwei Möglichkeiten: Man publiziert etwas bei einem Verlag, sei es als Monographie, Sammelband oder Beitrag in einem Journal. Und diese Verlage publizieren einen Teil ihrer Produktionen auch online, entweder als E-Book oder als Journal. Dann gibt es auch noch die Variante kostenpflichtige Journals. Man zahlt also, um einen Artikel publizieren zu können. Wenn Verlage möglichst viele, von den Autorinnen und Autoren selbst finanzierte Publikationen produzieren, kann das bezüglich inhaltlicher Qualität auf die Dauer wohl nicht aufgehen.

 

UG Ich finde OpenAccess sehr wichtig. Aber wie das mit dem Existenzinteresse kommerzieller Verlage vereinbar ist, die eine wichtige Funktion für die Community wahrnehmen, ist noch nicht gelöst. Das Modell der Sperrfrist, das ich aus der Schweizerischen Zeitschrift für Bildungswissenschaften kenne, deren Redaktion ich längere Zeit angehörte, könnte sich da durchsetzen. Die Lesenden mit Bezahlabonnementen haben dabei den Vorteil des unmittelbaren Zugriffs sowohl auf die Printversion wie auch auf die digitale Version. Der uneingeschränkte, kostenfreie Zugang folgt dann nach einer definierten Zeitdauer (z.B. 12 oder 24 Monate). Damit ist die Verbreitung sichergestellt und es gibt trotzdem noch einen Anreiz, die Zeitschrift und den Verlag via Abonnement finanziell zu unterstützen. Ein in jeder Hinsicht freier Zugang zu wissenschaftlichen Publikationen würde hingegen die finanziellen Grundlagen von Zeitschriftenredaktionen und Verlagen, und damit deren Funktion im Dienst der Qualitätssicherung, gefährden. Es muss einen Kompromiss geben und ein zeitversetzter, freier Zugang ist da aus meiner Sicht der Schlüssel.

 

RH Wobei da die verschiedenen Forschungsdisziplinen auch unterschiedlich gestrickt sind. Bei den Naturwissenschaften, wie z.B. der Medizin, hat die sofortige Verfügbarkeit eine andere Dringlichkeit als bei Geisteswissenschaften.

 

 

CW Gibt es in Folge der digitalen Vernetzung auch neue Herausforderungen für Publikationen in digitaler Form? Was muss dabei speziell beachtet werden?

 

RH Bei ausschliesslich digitaler Publikation stellt sich die Frage, wo man publiziert und ob man davon ausgehen kann, dass die Publikation auch langfristig verfügbar ist. Hier sind wir wieder bei den Verlagen und den Bibliotheken. Wenn der Verlag bzw. der Publikationsort eine privatrechtliche Institution ist, bei der man nicht weiss, ob sie in fünf Jahren noch existiert, dann sind die Daten eventuell nicht mehr zugänglich. Es braucht eine Körperschaft, die Zugänglichkeit garantiert und von der man annehmen darf, dass sie für die nächsten 50 oder 100 Jahre in irgendeiner Form Bestand hat und sich um die Verfügbarkeit der Daten kümmern wird. Bibliotheken sind da sicher gute Orte, gerade auch für online-Publikationen von -Dissertationen.

 

 

CW Nutzt Ihr Internetplattformen wie Facebook, Linkedin oder fachspezifische Blogs für den wissenschaftlichen Austausch?

 

UG Für meine inhaltliche Forschungsarbeit und den Austausch mit Kooperationspartnern in Deutschland und Österreich erfolgt der Austausch zumeist via elektronische Kommunikation, aber nicht öffentlich wie in einem Blog. Für meine Funktion in der Methodenberatung arbeite ich hingegen stark mit solchen Plattformen. Allerdings nutze ich primär die Logfiles von Diskussionsgruppen, das heisst die festgehaltene und dokumentierte methodenbezogene Kommunikation. Diese ist für mich sehr hilfreich, wenn ich methoden- oder softwarebezogene Probleme zu klären versuche, wie beispielsweise Fragen nach dem aktuellsten Kenntnisstand bezüglich Anforderungen an Fallzahlen von Stichproben für bestimmte Methoden. Lehrbücher hinken da immer etwas hinterher. Solche Plattformen geben auch die Möglichkeit, schnell zu massgeblichen Artikeln zu kommen. Dank Volltextzugang lassen sich effizient Texte und Textstellen finden, denen die gesuchte Information zu entnehmen ist. So ist das sehr wertvoll – aber nicht im angesprochenen Sinn interaktiv. Konkrete methodenbezogene Anfragen richte ich gerne gezielt an Personen, von denen ich weiss, dass ich gute Chancen habe, belastbare Antworten zu erhalten.

 

RH Es gibt natürlich historische Forschung, die sich mit genuin digitalen Daten als Quellen beschäftigt, z.B. Blogs oder Tweets. Für bestimmte Fragestellungen sind solche digitalen Quellen interessant. Es gibt auch eigene Fachgruppen, die sich mit diesen Fragen auseinandersetzen. Daneben beschäftigen sich Historikerinnen und Historiker auch mit Fragen der Digitalisierung von bestehenden Dokumenten für die Geschichtswissenschaft. Es geht also um beide Aspekte: die rein digital produzierten Quellen als Grundlage von Forschung zu nutzen und die Frage, wie transformiert man bestehende Quellen oder Forschung in digitale Form und vernetzt sie.

 

CW Welche Mittel setzt Ihr in der Lehre ein? Nutzt ihr die Online Learning and Teaching (OLAT) Plattform der UZH regelmässig – also so, dass z.B Studierende ihre Arbeiten online einreichen können?

 

RH Ja klar, das ist teilweise sogar Standard. Texte werden nicht mehr kopiert und in einem Ordner in der Bibliothek für die Studierenden deponiert, sondern man stellt sie online zur Verfügung. Teilweise werden zusätzlich auch noch Diskussionsforen zu den einzelnen Veranstaltungen eingerichtet. Das ergänzt, aber ersetzt eine gemeinsame Diskussion nicht. Man kann das natürlich alles über Online-Learning machen, und man kann auch schriftlich diskutieren, aber es ist sicher nicht unbedingt eine Zeitersparnis. Der persönliche Austausch hat eine Qualität, auf die ich grundsätzlich nicht verzichten möchte.

 

UG In der Statistik bietet es sich von der Curricularisierung der Inhalte an, das auch zu tun. Und es gibt gute Umsetzungen, wie z.B. MESOSworld. Aber die ersetzen in dem Bereich, für den ich verantwortlich bin, die Vermittlung in der klassischen Form nicht, sondern ergänzen sie nur.
Auch ist es längst Standard, mit PowerPoint-Präsentationen zu arbeiten. Dabei kann die Kunst guter Rhetorik etwas auf der Strecke bleiben. Weil ich mittlerweile fast nur noch methodenbezogene Lehre anbiete, ist es für mich genial, dass ich mit PowerPoint Visualisierungen von komplexen Sachverhalten realisieren kann, wie die Darstellung von Verteilungsformen und von darauf bezogenen Kennwerten, deren Eigenschaften rein verbal nicht zu kommunizieren wären. Mit einer Wandtafel und Kreide wäre das sehr mühsam zu erstellen. Der PC ist hier für mich unverzichtbar, aber es gilt achtzugeben, dass mehr als nur die "Minima Moralia" der Didaktik und des Einsatzes von Hilfsmitteln realisiert werden, und nicht das Tool um des Tools Willen eingesetzt wird. Bezüglich neuer Tools wie Prezi oder dem Presenter bin ich eher zurückhaltend, auch weil ich zu beidem bislang noch keine voll überzeugende Anwendung gesehen habe. Aber das ist wohl eine Entwicklungszone und es wird eine Frage der Zeit sein, bis solche Tools wirkliche Bedürfnisse zu berücksichtigen in der Lage sind.

 

RH Ich bin da auch eher eine zurückhaltende Nutzerin dieser Möglichkeiten. Auch weil in meinem Bereich sehr viele Dinge über Lektüre und Diskussion von gemeinsam gelesenen Texten läuft. Da sehe ich nicht wirklich, wie ein PC hilfreich sein könnte. Wenn man sich gemeinsam in einen Raum setzt und sich über einen Text unterhält, dann braucht es relativ wenig technische Unterstützung. Es hilft manchmal, wenn man eine Struktur an die Wand projizieren kann, aber das war es dann auch schon.

 

 

CW Ich danke Euch für das Gespräch und die vielseitigen Einblicke in Eure Arbeit unter dem Gesichtspunkt der Digitalisierung.

Autorenschaft

Christoph Wenger

Zeitmarke

2018