Logo

Suche in DATA AFFAIRS

ArtikelEinführung in das Forschungsdatenmanagement

Einführung in das Forschungsdatenmanagement

Übersicht

Dieser Artikel informiert über die Open-Science-Bewegung (OS) und ihre Ziele und gibt einen Überblick über die zentralen Konzepte des Forschungsdatenmanagements.

Einführung

Mit dem Aufkommen der globalen Open-Science(OS)-BewegungDie Open-Science-Bewegung plädiert seit den frühen 2000er Jahren für eine offene und transparente Wissenschaft, in der alle Schritte des wissenschaftlichen Erkenntnisprozesses offen online zugänglich gemacht werden. So sollen nicht nur Endergebnisse von Forschungen wie Monographien oder Artikel öffentlich geteilt werden, sondern auch verwendete Materialien, die den Entstehungsprozess begleiteten wie: Labortagebücher, Forschungsdaten, verwendete Software, Forschungsberichte usw. Dadurch soll eine Partizipation an Wissenschaft und Erkenntnissen gefördert und interessierte Öffentlichkeiten angesprochen werden. Kreativität, Innovation und neue Kollaborationen sollen gefördert, Erkenntnisse auf ihre Qualität, Richtigkeit und Authentizität hin überprüft werden, was eine Demokratisierung von Forschung bezwecken soll. Zur Open Science zählen u. a. Open Access und Open Data, die Infrastrukturen des Teilens von Zwischenergebnissen von Forschungen bilden. Weiterlesen in den frühen 2000er Jahren hat sich der Anspruch an eine verantwortungsvolle Forschung und eine gute wissenschaftliche PraxisDie gute wissenschaftliche Praxis (GWP) bildet einen standardisierten Kodex, der als Regelwerk in den Leitlinien der Deutschen Forschungsgemeinschaft (DFG) verankert ist. Die Leitlinien verweisen auf die ethische Verpflichtung jedes/jeder Forschenden, verantwortungsvoll, ehrlich und respektvoll vorzugehen, auch um das allgemeine Vertrauen in Forschung und Wissenschaft zu stärken. Sie können als Orientierung im Rahmen wissenschaftlicher Arbeitsprozesse geltend gemacht werden. Weiterlesen (GWP) weiterentwickelt. GWP bildet einen standardisierten Kodex, der in den Leitlinien der Deutschen Forschungsgemeinschaft (DFG) verankert ist und zu einem ehrlichen und verantwortungsvollen, sowie ethisch und rechtlich einwandfreien wissenschaftlichen Arbeiten verpflichtet (DFG, 2022). Immer stärker rücken ebenso Forderungen nach Open AccessOpen Access bezeichnet den freien, kostenlosen, ungehinderten und barrierefreien Zugang zu wissenschaftlichen Erkenntnissen und Materialien. Für eine weitere rechtssichere Nachnutzung der Materialien durch Dritte müssen die Urhebenden mittels Lizenzvertrages die Nutzungsrechte an ihren Werken einräumen. Die freien CC-Lizenzen spezifizieren bspw. genau, wie Daten und Materialien weitergenutzt werden dürfen. Weiterlesen – einem offenen und kostenlosen Zugang zu Forschungsdaten – und damit nach Open DataOpen Data (offene Daten) sind Daten, die offen und frei online zugänglich sind sowie uneingeschränkt von Dritten weiterverwendet werden dürfen. Dies setzt voraus, dass sie mit einer offenen Lizenz versehen sind (Opendefinition, 2023). Weiterlesen – der Möglichkeit der Nachnutzung von Daten durch Dritte – in den Vordergrund. Die Forderungen nach Open Science sind in den Richtlinien und Empfehlungen der DFG verankert und haben zum Ziel, die akademische Forschung für unterschiedliche Öffentlichkeiten zugänglich zu gestalten. Damit soll das allgemeine Vertrauen in die Wissenschaft gestärkt und Kreativität, Innovationen und Kollaborationen gefördert werden.

Im Sinne der FAIR-PrinzipienDie FAIR-Prinzipien wurden 2016 erstmals von der FORCE 11-Community (The Future of Research Communication and e-Scholarship) entwickelt. FORCE11 ist eine Gemeinschaft von Wissenschaftlern, Bibliothekaren, Archivaren, Verlegern und Forschungsförderern, die durch den effektiven Einsatz von Informationstechnologie einen Wandel in der modernen wissenschaftlichen Kommunikation herbeiführen und so eine verbesserte Wissenserstellung und -weitergabe unterstützen will. Das primäre Ziel liegt in der transparenten und offenen Darlegung wissenschaftlicher Erkenntnisprozesse. Demnach sollten Daten online findable (auffindbar), accessible (zugänglich), interoperable (kompatibel) und reusable (wiederverwendbar) abgelegt und strukturiert sein. Ziel ist es, Daten langfristig aufzubewahren und im Sinne der Open Science und des Data Sharing für eine Nachnutzung durch Dritte bereitzustellen. Genaue Definitionen der FORCE11 selbst können auf der Website nachgelesen werden siehe: https://force11.org/info/the-fair-data-principles/. Die FAIR-Prinzipien berücksichtigen ethische Aspekte der Weitergabe von Daten in sozialwissenschaftlichen Kontexten nicht hinreichend, weshalb sie um die CARE-Prinzipien ergänzt wurden. Weiterlesen, die 2016 erstmals von der FORCE11-Community (The Future of Research Communication and e-Scholarship) veröffentlicht wurden, sollen wissenschaftliche Erkenntnisse auch in ihrem Entstehungsprozess transparent und offen zirkulieren (Force, 2021). Daten sollen auffindbar (findable), zugänglich (accessible), interoperabelUnter Interoperabilität bezeichnet man die Fähigkeit eines Systems mit anderen Systemen nahtlos zusammenzuarbeiten. Innerhalb interoperabler Systeme können Daten automatisiert mit anderen Datensätzen kombiniert und ausgetauscht werden. Somit werden Daten auf vereinfachte und beschleunigte Weise maschinell lesbar, interpretierbar und vergleichbar. Interoperabilität stellt eines der Hauptkriterien der FAIR-Prinzipien dar (Forschungsdaten.info, 2023). Weiterlesen bzw. kompatibel (interoperable) und wiederverwendbar (reusable) strukturiert, dokumentiert und abgelegt werden. Durch einen uneingeschränkten Zugang zu Wissen soll die Partizipation an akademischen Diskursen für breite Öffentlichkeiten ermöglicht und eine Demokratisierung von Forschung angestrebt werden.

FAIR-Prinzipien von Anne Voigt mit CoCoMaterial (nach Paulina Halina Sieminska), 2023, lizenziert unter CC BY-SA 4.0

Quelle: FAIR-Prinzipien (nach Paulina Halina Sieminska), Anne Voigt mit CoCoMaterial, 2023, lizenziert unter CC BY-SA 4.0

Dabei steht insbesondere das Forschungsdatenmanagement (FDM) im Fokus: FDM bildet das Schlüsselkonzept verantwortungsvoller, guter wissenschaftlicher Praxis und beinhaltet den Umgang mit Forschungsdaten in Bezug auf ihre Organisation, Pflege und Aufarbeitung anhand spezifischer Maßnahmen und Strategien. Ziel ist es, Daten im Sinne der FAIR-Prinzipien langfristig aufzubewahren und für Dritte zugänglich zu machen, sodass wissenschaftliche Aussagen überprüft, Nachweise gesichert und weitere Auswertungen oder Analysen vollzogen werden können. Hier greift der Imperativ des Data SharingData Sharing meint das Teilen bzw. Weitergeben von Daten. Dabei gilt es gemäß den entsprechenden Anforderungen der Forschung, die Daten so offen wie möglich und so geschlossen wie nötig (Europäische Kommission, 2021) darzulegen und zur Verfügung zu stellen. Insbesondere im Hinblick auf die Nachnutzung und den Umgang mit sensiblen, personenbezogenen Daten muss gründlich überprüft werden, ob und in welcher Form das Archivieren und Teilen von Daten mit anderen Wissenschaftler*innen und der Öffentlichkeit möglich und sinnvoll ist. Der Imperativ des Data Sharing bildet im Rahmen der Open-Science-Bewegung einen breiten Konsens in der Wissenschaft, ist aber aus sozial- und kulturanthropologischer Sichtweise kritisch zu betrachten und abzuwägen. Weiterlesen, also des Teilens bzw. der Weitergabe von Daten: Gemäß den Anforderungen von Open Science'Der Begriff Open Science bündelt … Strategien und Verfahren, die allesamt darauf abzielen, ... alle Bestandteile des wissenschaftlichen Prozesses über das Internet offen zugänglich und nachnutzbar zu machen. Damit sollen Wissenschaft, Gesellschaft und Wirtschaft neue Möglichkeiten im Umgang mit wissenschaftlichen Erkenntnissen eröffnet werden' (AG Open Science, 2014). Weiterlesen gilt es, erhobene Daten „as open as possible and as closed as necessary“ (Europäische Kommission, 2021) darzulegen und zur Verfügung zu stellen.

Aspekte des Forschungsdatenmanagements gewinnen in den letzten Jahren zunehmend an Bedeutung, sodass immer mehr Universitäten, Forschungs- und Förderinstitutionen eigene Forschungsdatenpolicies formulieren. Diese Richtlinien und Regelwerke bieten Unterstützung bei Fragen bezüglich des FDM und sollten in der Umsetzung beachtet werden. Es gibt in Deutschland zwar noch keine standardisierten Auflagen zum Umgang mit Forschungsdaten, dennoch können Förderprogramme der DFG oder der EU entsprechende Nachweise oder Pläne (wie z. B. einen DatenmanagementplanEin Datenmanagementplan (DMP) beschreibt und dokumentiert den Umgang mit den Forschungsdaten und Forschungsmaterialien einer Forschung während und nach der Projektlaufzeit. Im DMP wird festgehalten, wie die Daten und Materialien entstehen, aufbereitet, gespeichert, organisiert, veröffentlicht, archiviert und ggf. geteilt werden. Zudem werden im DMP Verantwortlichkeiten und Rechte geregelt. Als 'living document' (also ein dynamisches Dokument, das sich fortlaufend in Bearbeitung und Veränderung befindet) wird der DMP im Laufe des Projektes regelmäßig geprüft und bei Bedarf angepasst. Weiterlesen) verpflichtend einfordern.

Hinsichtlich eines empfohlenen, sorgfältigen Forschungsdatenmanagements kann ferner das Modell des ForschungsdatenlebenszyklusDas Modell des Forschungsdatenlebenszyklus stellt sämtliche Phasen dar, die Forschungsdaten vom Zeitpunkt der Erhebung bis zu ihrer Nachnutzung durchlaufen können. Die Phasen sind an bestimmte Aufgaben gekoppelt und können variieren (Forschungsdaten.info, 2023). Allgemein umfasst der Forschungsdatenlebenszyklus folgende Teilbereiche:  Weiterlesen als unterstützendes Hilfsmittel herangezogen werden: Innerhalb dieses Konzeptes werden einzelne „Lebensstadien“ von Daten unterschieden und mit bestimmten Aufgaben verbunden, die vor, während und nach der Datenerhebung anfallen. Diese beinhalten die Planung des Forschungsvorhabens, die Datenerhebung als solche, die Aufarbeitung und Analyse von Daten, die Datenpublikation sowie die Archivierung und Nachnutzung. Mit der Metapher des Lebenszyklus werden Daten als „lebendige“ Entitäten betrachtet, die auch über das Forschungsprojekt hinaus (z. B. durch eine NachnutzungEine Nachnutzung, oftmals auch Sekundärnutzung genannt, befragt bereits erhobene und veröffentlichte Forschungsdatensätze erneut mit dem Ziel, andere Erkenntnisse, möglicherweise aus einer neuen oder unterschiedlichen Perspektive, zu erhalten. Die Aufbereitung von Forschungsdaten für eine Nachnutzung erfordert einen erheblich höheren Anonymisierungs-, Aufbereitungs- und Dokumentationsaufwand als die bloße Archivierung im Sinne von Datenspeicherung. Weiterlesen) ein „eigenes Leben“ führen.

Die oben beschriebenen FAIR-Prinzipien, die Richtlinien der Hochschulen und der Forschungsdatenlebenszyklus stellen Empfehlungen für ein erfolgreiches Forschungsdatenmanagement dar, berücksichtigen allerdings forschungsethische AspekteForschungsethik befasst sich mit dem Verhältnis zwischen Forschenden, Forschungsfeld und Beforschten. Dabei wird dieses Verhältnis vor dem Hintergrund der durch die Forschung hergestellten Vulnerabilitäten und Machtasymmetrien kritisch reflektiert (Unger, Narimani & M’Bayo, 2014, p.1-2). Gerade wegen der Prozesshaftigkeit und Offenheit einer ethnografischen Forschung treten forschungsethische Fragen im gesamten Forschungsprozess in verschiedener Weise auf. Sie variieren je nach Forschungskontext und Forschungsmethoden. Forschungsethik hört allerdings nicht mit dem Verlassen des Feldes auf, sondern umfasst ebenfalls Fragen der Datenarchivierung, des Datenschutzes sowie des Teilens der Forschungsdaten mit den Forschungsteilnehmenden (siehe z. B. Ethikpapiere der DGSKA oder das Positionspapier zur Archivierung, Bereitstellung und Nachnutzung von Forschungsdaten der dgv). Weiterlesen und Problematiken nur am Rande. Daher wurden 2019 von der Research Data Alliance, die einen technischen und sozialen infrastrukturellen Ausbau von Data Sharing anstrebt, die CARE-PrinzipienDie CARE-Prinzipien wurden 2019 von der Global Indigenous Data Alliance (GIDA) etabliert. Sie fungieren als Komplement zu den FAIR-Prinzipien und gelten als Hilfswerkzeug, um Forschungskontexte und ihre historische Einbettung sowie Machtasymmetrien im Feld stärker zu fokussieren. Das Akronym steht für Collective Benefit (Gemeinwohl), Authority to Control (Kontrolle der Forschungsteilnehmenden über die eigene Repräsentation), Responsibility (Verantwortung seitens Forschender) und Ethics (Berücksichtigung ethischer Aspekte). Durch die CARE-Prinzipien soll der gerechte, respektvolle und ethische Umgang mit Forschungsteilnehmenden und den aus der Forschung generierten Daten hinsichtlich des Data Sharing betont und berücksichtigt werden. Die CARE-Prinzipien sind somit in allen Phasen des Forschungsdatenlebenzyklus und des Forschungsdatenmanagements relevant.  Weiterlesen formuliert. Sie sollen als Ergänzung der FAIR-Prinzipien fungieren und sind besonders für die sozial- und kulturanthropologische Datenerhebung bedeutend (vgl. Artikel zur Forschungsethik; Research Data Alliance, 2016).

Motivation

Es gelten folgende Faktoren als motivierend in Bezug auf das Forschungsdatenmanagement:

  • Bestimmte Förderinstitutionen fordern Strategien des FDM (wie z. B. einen Datenmanagementplan) als Voraussetzung für die Förderung (vgl. Artikel zum Datenmanagementplan).
  • Durch die Einhaltung von FDM-Prozessen „von Anfang an“ erleichtern sich Forschende nicht nur die eigene spätere Re-Interpretation ihrer Daten, sondern verringern auch den Aufwand für die Bereitstellung ihrer Daten zur Nachnutzung durch Dritte.
  • Für die Reproduzier- bzw. Nachvollziehbarkeit von Forschungsergebnissen ist ein gut dokumentiertes FDM Voraussetzung (RatSWD, 2023, p. 8).
  • Das Risiko eines Datenverlusts wird durch FDM-Maßnahmen wie zum DatenschutzDatenschutz beinhaltet Maßnahmen gegen ein unrechtmäßiges Erheben, Speichern, Teilen und Nachnutzen von personenbezogenen Daten. Der Datenschutz stützt sich auf das Recht der Selbstbestimmung von Individuen in Bezug auf den Umgang mit ihren Daten und ist in der Datenschutz-Grundverordnung (DSGVO), dem Bundesdatenschutzgesetz und in den entsprechenden Gesetzen der Bundesländer verankert. Ein Verstoß gegen datenschutzrechtliche Vorschriften kann strafrechtliche Konsequenzen nach sich ziehen. Weiterlesen, zur DatensicherheitUnter Datensicherheit werden alle präventiven Maßnahmen physischer und technischer Art verstanden, die dem Schutz digitaler und auch analoger Daten dienen. Datensicherheit soll für deren Verfügbarkeit bürgen, sowie die Vertraulichkeit und Integrität der Daten gewährleisten. Beispiele für Maßnahmen sind: Passwortschutz für Geräte und Online-Plattformen, Verschlüsselungen für Software z. B. E-Mails und auch Hardware, Firewalls, regelmäßige Softwareupdates sowie sicheres Löschen von Dateien. Weiterlesen sowie -speicherungDatenspeicherung bezeichnet allgemein den Vorgang des Speicherns von Daten auf einem Trägermaterial oder Datenträger (digitalisierte Daten). Weiterlesen, eine systematische DatendokumentationForschungsdaten bilden nicht nur die Basis wissenschaftlicher Veröffentlichungen der jeweiligen Forscher*innen, sondern werden in vielen Fällen anderen zugänglich gemacht. Dies setzt voraus, dass Forschungsdaten verständlich dokumentiert sind. Unverzichtbar wird dies, wenn eine Datenpublikation beabsichtigt ist. Eine zentrale Rolle für das Finden, Durchsuchen und Nutzen von Forschungsdaten spielen Metadaten, also Daten, die strukturierte Informationen über andere Daten enthalten. In verschiedenen Wissenschaftskreisen haben sich für die Dokumentation in Form von Metadaten sogenannte Metadatenstandards etabliert, die Konventionen für die Beschreibung und Dokumentation von Forschungsdaten über Metadaten festlegen. Weiterlesen und eine geeignete Langzeitarchivierung (LZA) minimiert.
  • Ein gutes FDM unterstützt die Umsetzung der FAIR-Prinzipien.

Dennoch bedeutet Forschungsdatenmanagement nicht unbedingt, dass Daten offen zugänglich sein müssen. Es kann rechtliche (z. B. in Form des Nutzungsrechts) oder ethische Gründe geben, die gegen Open Science sprechen und entsprechend abgewogen werden müssen.

Methoden

Die Maßnahmen und Strategien des FDMs umfassen folgende Bereiche, auf die in den weiteren Artikeln vertiefend eingegangen wird (siehe auch den Wegweiser, der die Artikel thematisch clustert):

  • Planung des Forschungsvorhabens und der Datengenerierung (Feldaufenthalt), sowie das Erstellen eines Datenmanagementplans (DMP)
  • (Digitale) Aufzeichnungsstrategien
  • Maßnahmen zum Schutz von personenbezogenen Daten
  • Aufbereitung, Auswertung, Analyse von Daten
  • Datendokumentation
  • Datenpublikation
  • Langzeitarchivierung und Nachnutzungsszenarien

Anwendungsbeispiele

Beispiel: Interview von Birgitt Röttger-Rössler mit Max Kramer, 2023

In diesem Interview berichtet der Sozial- und Kulturanthropologe Dr. Max Kramer über seine aktuellen Forschungen mit muslimischen Minderheiten in Indien und ihren medialen Praktiken, genauer der taktischen Nutzung digitaler Plattformen durch deren Aktivist*innen.

als Audio

Quelle: Interview Röttger-Rössler mit Kramer zu Forschungen in Indien, 2023, lizenziert unter CC BY-NC-ND 4.0

als Transkript


Birgitt Röttger-Rössler: Ich spreche mit dem Sozialanthropologen Dr. Max Kramer, der sich in seinen aktuellen Forschungen mit religiösen genauer mit muslimischen Minderheiten in Indien und ihren medialen Praktiken beschäftigt. Max, wenn ich das richtig verstanden habe, interessiert dich vor allem die taktische Nutzung digitaler Plattformen durch religiöse Minderheiten. D. h. du nimmst gezielt in den Blick, wie Erfahrungen, die Aktivist*innen in ihren analogen Lebenswelten machen, online repräsentiert werden.

Max Kramer: Ja das kann man nicht direkt so sagen, also zum einen, weil diese Aktivist*innen keine analogen Lebenswelten mehr haben, sondern ihre Lebenswelt tief mediatisiert ist. D. h., dass in ihrer Alltagspraxis im Grunde keine sinnvolle Online-Offline-Trennung mehr da ist, sondern eher so'ne Art taktischer Nutzung verschiedener Affordanzen, die gewisse Möglichkeiten bieten und auch mit gewissen Gefahren einhergehen. Und Taktik verstehe ich als etwas, was aus dem langfristigen Lernen herauskommt. Dieses Lernen hat nicht nur etwas mit der Frage der Repräsentation zu tun. Also ich beschäftige mich vor allem mit, was man ethische Fragen nennen könnte, zum Beispiel, wie man sich emotional auf 'ne Twitterpraxis einstellt, wie man manchmal lieber ein Gedicht schreibt als 'nen politischen Tweet mit Nachrichtenwert, wie man manchmal für Monate die Plattform verlässt, um den politischen Gegnern zu folgen und so'n bisschen was über das rassistische Ökosystem zu lernen, was es da in Indien gibt und was die Hindu-Nationalisten aufgebaut haben in den letzten 15 Jahren, wie man an sich selbst arbeitet, um zur richtigen Zeit mit den richtigen Emotionen auf der richtigen Plattform den richtigen Inhalt zu posten. Das sind so taktische Raffinesse, die man da über teilweise einen ziemlich brutalen Lernprozess sich aneignet. Weil sonst kann es nämlich passieren, dass man ‚geframed' wird, oder dass man zur Inszenierung von moralischer Empörung durch den politischen Gegner herhalten muss. Also meine Gesprächspartner*innen überlegen sich halt, was sie machen können, damit sowas nicht passiert.

Birgitt Röttger-Rössler: Wenn ich da mal kurz eingreifen also reinfragen darf, das ist sehr interessant finde ich, was du da erzählst, weil (du) uns überzeugend dargelegt hast, dass eben diese Trennung zwischen Online und offline, virtueller oder digitaler und analoger Welt ja eigentlich so gar nicht mehr aufrecht zu erhalten ist. Eben dass all die medialen und digitalisierten Praktiken unseren Alltag bestimmen und diese Trennung eigentlich dann schon eine künstliche ist. Das fordert ja natürlich auch die sozialanthropologische Forschung heraus, wir müssen ja damit umgehen. Also wie machst du das? Du hast mir zum Beispiel erzählt, in unseren Vorgesprächen, dass du eben den tonangebenden politischen Aktivist*innen also denen mit sehr viel Einfluss mit großen Twitterhandles oder Xhandles, wie es jetzt heißen müsste, zunächst immer online gefolgt bist und verfolgt hast, was die machen, wie sie sich repräsentieren, mit wem sie interagieren, auf wen sie reagieren usw. und dann aber versucht hast, natürlich auch über deine vielen Kontakte mit diesen Personen in Kontakt zu kommen. Und ja, wie hast du einmal da dann deine Onlinerecherche dokumentiert und gespeichert, das interessiert mich, und auch diese Verschränkung, wie dokumentierst du diese Verschränkung, von der du gerade gesprochen hast, von analoger und digitaler Welt?

Max Kramer: Es ist eher so eine kreisende Bewegung, ich habe bereits aus früherer Forschung Netzwerke gehabt in Dehli und in Bombay und ich musste wegen dieser Akteure lesen und retweeten, und das waren meistens Leute, die relativ große Handles haben. Damit meine ich mehr als 50.000 Follower oft auch bis zu 150.000 Follower, vielleicht könnte man sagen Twitter-Microstar-Personas. Denen bin ich dann erst einmal allen gefolgt. Das sind nicht so viele auf Indien verteilt, die so'ne Größe an Followern zusammenbringen. Und ich habe dann versucht so schnell wie möglich, diese Leute persönlich zu treffen. Also meine hauptsächlichen Daten sind also Gespräche über die Praxis. Was mich interessiert ist, was den Akteuren wichtig ist. Was ist für sie in ihrer Praxis wichtig, was für Probleme haben sie, wenn sie auf sozialen Netzwerken unterwegs sind und wie lernen sie, mit diesen Problemen umzugehen, sie zu vermeiden, neue taktische Zugänge zu entwickeln usw. Vor dem ersten Treffen mit Aktivisten habe ich mir normalerweise die letzten Monate ihrer Tweets angeschaut und gelegentlich Screenshots gemacht, wenn ich dachte, das ist ein Tweet, der viel geteilt wurde, der stark problematisiert wurde, der vielleicht auch dazu geführt hat, dass ein Gerichtsverfahren gegen diese Akteure gestartet wurde usw. Das sind dann Tweets, von denen ich Screenshots gemacht habe und die ich dann ins erste Gespräch genommen habe. Mir ist dann aber auch bald aufgefallen, dass die Screenshots, die ich gemacht habe im Vorfeld, dass das für die Akteure nicht unbedingt besonders wichtige Tweets waren. Also das für ihre eigene Erinnerung an ihre Twittergeschichte diese Tweets eher nebensächlich wären, aber ganz andere Tweets viel bedeutender waren. Dann habe ich mich dann mit diesen Tweets auseinandergesetzt, Screenshots von denen gemacht und die in Ordner gespeichert und diese Ordner verschlüsselt und auf einer sicheren Festplatte in einer verschlüsselten Form verwahrt dann. Das mache ich mit allen Daten, die ich sammle.

Birgitt Röttger-Rössler: Da sind wir ja dann schon bei einer ganz ganz wichtigen Frage. Ja gerade auch bei deiner Forschung ist ja die besondere Herausforderung deren politische Brisanz, eben ja das muslimische Minderheitengruppen sich immer wieder Anfeindungen – wie du auch schon gesagt hast – durch die Hindu-Nationalisten ausgesetzt sehen. Wie gehst du damit um? Du hast das schon angedeutet, aber vielleicht kannst du da noch einen Satz zufügen. Wie versuchst du die Sicherheit deiner Gesprächspartner*innen zu gewährleisten? Und inwieweit beeinträchtigt oder nicht beeinträchtigt – besser – inwieweit tangiert dies deinen Umgang mit deinen Forschungsdaten?

Max Kramer: Ja, also auf alle möglichen Arten und Weisen. Also zum Beispiel zur Kommunikation im Feld benutzen wir nicht WhatsApp, sondern Signal. Wenn ich im Feld unterwegs bin, dann lasse ich die Nachrichten automatisch nach 30 min löschen auf Signal. Ich achte darauf, was auch immer ich als Rohdaten aufnehme, sicher ist. Damit meine ich, sicher aufgenommen, sicher verwahrt und sicher bearbeitet. Zur Aufnahme von Videos, Fotos und Audiodateien benutze ich im Feld ein separates Handy, auf dem keine SIM-Karte ist und auf dem das Betriebssystem GrapheneOS installiert ist, das ist ein sicheres Betriebssystem.

Und in meinem Buch – das ist jetzt alles auf der Ebene sozusagen der Sammlung der Daten, des Transports der Daten, der Verwahrung usw. und der Bearbeitung und besonders der Transkription von den Gesprächen, das ist ja das Heikelste, was ich habe, weil die Leute geben mir halt 'nen Einblick in ihr Betriebswissen und da sind Informationen dabei, obwohl das natürlich alles so Mikrostars sind, die sehr sichtbar sind in gewisser Weise, aber gerade dieses Wissen, was ich habe, ist gerade nicht sichtbar und darf auf keinen Fall irgendwie in die falschen Hände geraten. Das bedeutet natürlich auch, dass ich mir Gedanken mache darüber, wie ich meine Daten dann verarbeite und in argumentativer Art und Weise darstellen kann. Und da experimentiere ich so'n bisschen nicht nur mit Anonymisierung natürlich, sondern auch mit Fiktionalisierung. Damit meine ich, dass einige Orte und Ereignisse eben geshuffelt werden müssen, solange grob der Kontext da ist, den man braucht, um das Argument zu machen. Weil sonst können die Leute zu leicht getrackt werden. Ich kann zum Beispiel keine Tweets copypasten in meinen fertigen Text. Dadurch würde natürlich jede Anonymisierung sofort auffliegen. Also alle Daten, die ganz einfach trackable sind, die man relativ leicht mit zwei drei Klicks einer Person zuordnen kann, die können nicht so reproduziert werden. Also Tweets müssen paraphrasiert werden, sodass der Kontext bleibt, aber nichts getrackt werden kann. Da gibt es jetzt natürlich eine ganz interessante Spannung, weil diese Leute, mit denen ich zu tun habe, wie gesagt diese Mikrostars sind, sind politische Leute, und die bekommen viel Anerkennung aufgrund ihres Muts und einige von denen sind auch Dichter und haben eine gewisse ästhetische Raffinesse, die auch anerkannt werden sollte. Zudem sagen sie mir oft, dass sie gerne namentlich auch erwähnt werden möchten. Also es ist ein schwieriger Trade auch für mich.

Birgitt Röttger-Rössler: Ja ich denke, das ist wirklich noch einmal eine ganz andere ganz große Herausforderung, dann auch eben wie repräsentiert man das und genau in dieser Spannung, die du da angesprochen hast, dass manche unserer Gesprächspartner und Gesprächspartnerinnen auch genannt werden wollen, also gar nicht hinter dieser Anonymisierung verschwinden, und ja das ist eine Herausforderung.

Max ich danke dir sehr für dieses Gespräch. Ich glaube, du hast ganz viele sehr sehr wichtige Aspekte hier angesprochen, vor allen Dingen auch, wie viele Gedanken man sich über die Verschlüsselung und das ganz sichere Aufbewahren im Feld machen muss und meiner Erfahrung nach gehen da viele noch sehr naiv mit um. Also vielen Dank für dieses Gespräch.

Literatur und Quellenangaben

Weitere Literatur

Zitierweise

Heldt, C. & Röttger-Rössler, B. (2023). Einführung in das Forschungsdatenmanagement. In Data Affairs. Datenmanagement in der ethnografischen Forschung. SFB 1171 & Center für Digitale Systeme, Freie Universität Berlin. https://data-affairs.affective-societies.de/artikel/einfuehrung-forschungsdatenmanagement/