[1] Die Novellierung des deutschen Bundesarchivgesetzes vom 19. Januar 2017 wird von erheblicher Kritik begleitet. Diese bezieht sich darauf, dass im Bundes-Behördengang entstehende personengebundene Daten nicht zwingend zur Archivierung gelangen. Lücken in der aus späterer Sicht historischen Dokumentation der augenblicklichen Zeitgeschichte sind unvermeidlich und können ein großes Ausmaß annehmen.
[2] Im österreichischen Bundesarchivgesetz in der Fassung vom 25.1.2017 regelt §5 u.a. die Archivierung digitaler (elektronischer) personengebundener Daten. Auch hier ist kein Archivierungsautomatismus vorgesehen, aber der Wille des Gesetzgebers scheint klar erkennbar, eine Archivierung zum Regelfall werden zu lassen.
[3] In Frankreich wird zeitgleich den Gerichten vorgeschrieben, ihre Urteile open access zugänglich zu machen. Die Identifizierung von Prozessbeteiligten ist dabei auszuschließen, aber es scheint kaum vorstellbar, dass dies zu 100% gelingt. Das Gesetz vom 7. Oktober 2016 für eine „République numérique“ reicht jedoch weit über die Judikatur hinaus.
[4] Der französische Fall ist nicht direkt mit den beiden exemplarisch erwähnten Bundesarchivgesetzen (Deutschland, Österreich) zu vergleichen, da es um die Bereitstellung des öffentlichen kostenlosen Zugangs zu Daten, die bei Behörden und Gerichten entstehen, geht. Die Kritik richtet sich dort z.B. dagegen, dass mithilfe von Algorithmen aus den Millionen digital zugänglicher Urteile Muster errechnet werden könnten, die wiederum die Urteilstätigkeit einzelner RichterInnen, einzelner Gerichtssenate oder ganzer Gerichte vorausberechenbar machen könnten.
[5] Allen gemeinsam, nicht nur in den drei Ländern, ist das Problem der personenbezogenen Daten. Aus Sicht aller historisch arbeitenden Wissenschaften besteht ein hohes Interesse speziell an personengebundenen Daten, da ohne diese keine historische Forschung, egal, um welches historisch arbeitendes Fach es geht, möglich ist. Der Druck, heute weit in die Zukunft in Bezug auf die Bewahrung auch solcher Daten zu denken, ist zwar nicht neu, aber er wächst.
[6] Denn Lebensgewohnheiten unterliegen dem Wandel, der sich seit Jahren zu einem erheblichen Teil vorwiegend digital niederschlägt und zunächst, solange nicht durch einen expliziten Löschbefehl oder eine zeitgebundene Löschautomatik eingegriffen wird, ja auch selber archiviert.
[7] Denken wir zunächst einmal völlig tabulos: Es geht nicht nur um das Material von Behörden, die mit der Verwaltung von Personen befasst sind, oder um Geheimdienste, sondern auch um die unzähligen Überwachungskameras. Das meint nicht nur die sprichwörtliche Überwachungskamera an öffentlichen Plätzen, Gebäuden, Bahnhöfen, U-Bahnen und anderen Verkehrsmitteln, sondern auch im ‚privaten‘ Bereich. Die Robotisierung der Mobilität (Drohnen, selbstfahrende Autos, fahrfähige Roboter, die Zustelldienste ausführen, etc. etc.) geht nur mithilfe von Kameras, die Weg, Ziel und Kontext ‚überwachen‘. Hier fällt sozio-kulturelles Material an, das im Moment vielleicht eher sozio-kulturelle Ränder dokumentiert, aber in Zukunft immer mehr in die Mitte reichen wird. Unentbehrliches Quellenmaterial für künftige Forschungen über die Gesellschaft von 2017, 2027, 2037 usw.
[8] In allen Fällen stellt sich leicht, schon was die dauerhafte Speicherung angeht, ein Konflikt mit geltendem nationalen und europäischen Datenschutzrecht ein, dem Recht auf informationelle Selbstbestimmung und einem intensiv diskutierten (Grund-?)Recht auf digitales Vergessen, das dem Schutz der Persönlichkeit dient.
[9] Der Datenschutz bedarf des Ausbaus, nicht des Rückbaus. Das Recht auf informationelle Selbstbestimmung muss in der Praxis für den Einzelnen unkompliziert und barrierelos wahrgenommen werden können.
[10] In unserem Buch „Privatheit im digitalen Zeitalter“ haben Marie-Theres Tinnefeld und ich unter anderem die Geschichte des Datensammelns nachgezeichnet und die Frage gestellt, ab wann ein Bewusstsein für die Schutzwürdigkeit personenbezogener Daten, die frühzeitig den Hauptteil des Datensammelns ausmachten, entstand. Es entstand spät. Wenn man strenge Maßstäbe anlegt, erst nach dem Zweiten Weltkrieg. Diesem spät entstandenen Bewusstsein ist es zu ‚verdanken‘, dass das historische Datenmaterial, das in Form archivierter oder sonstwie überlieferter (z.B. in der berühmten Kiste auf dem Dachboden) Quellen massenhaft zur Verfügung steht.
[11] Das in der Gegenwart notwendige kritische Bewusstsein in Bezug auf jegliche Art personenbezogener Daten steht daher im Gegensatz zur historischen Praxis, die datenschutzrechtlich als Unpraxis bezeichnet werden könnte.
[12] Der Konflikt zwischen Datenschutz und wissenschaftlichen Bedürfnissen ist nicht wirklich zu lösen, da er im Kern moralisch-ethisch charakterisiert ist. Diese Problemkonstellation ist für die Naturwissenschaften nicht neu, für die historischen Wissenschaften hingegen schon.
[13] Ethikkommissionen oder -räte stellen eine bewährte Praxis dar, wenn es darum geht, einen konkreten Konfliktfall zu begleiten, der im Grundsatz daraus resultiert, dass ein fundamentales Problem eben fundamental und daher allgemein ist, aber nicht grundsätzlich und allgemein geregelt werden kann.
[14] Es kann eingewendet werden, dass das viel Zeit benötigt. Das stimmt, aber der Zeitaufwand ist es wert.
[15] Generell stellen sich in den Digital Humanities ethische Fragen. Darauf hat Malte Rehbein, ausgehend von Big Data-Analysen, aufmerksam gemacht. Auch wenn seine historischen Beispiele – z. B. psychologische Aussagen zu Shakespeare bzw. Demenzdiagnose zu Agatha Christie infolge textanalytischer und textlinguistischer Verfahren – nicht gerade alarmieren, sind vergleichbare Methoden in Bezug auf die Gegenwart und lebende Personen ebenso anwendbar und werfen nicht nur methodenkritische, sondern auch moralische und ethische Fragen auf.
[16] Dies führt zurück zur französischen République numérique. Das sogenannte Gesetz Lemaire begründet ein riesiges öffentliches Experiment. Es lohnt sich, das begleitend zu beobachten. Welche Fragen werden an das öffentlich zugängliche Big-Data-Material aus dem ‚Bauch‘ der Institutionen gestellt, welche wissenschaftlichen Auswertungsmethoden werden angewandt, welche moralischen und ethischen Konflikte entstehen? Wie werden diese gelöst oder nicht gelöst?
Empfohlene Zitierweise (die Absätze sind in eckigen Klammern für Zitationszwecke nummeriert):
Wolfgang Schmale: Digitale personengebundene Daten in den Digital Humanities: Brauchen wir Ethikräte? In: Wolfgang Schmale: Blog „Mein Europa“, wolfgangschmale.eu/digitale-personengebundene-daten-in-den-digital-humanities-brauchen-wir-ethikraete, Eintrag 25.01.2017 [Absatz Nr.].