Henning Mayer | Rezension |

Überwachung – sensibel und vertraulich

Rezension zu „People Count. Contact-Tracing Apps and Public Health“ von Susan Landau

Abbildung Buchcover People Count von Landau

Susan Landau:
People Count. Contact-Tracing Apps and Public Health
USA
Cambridge, MA 2021: MIT Press
184 S., $ 24,95
ISBN 9780262045711

Mit People Count legt die Informatik-Professorin und Expertin für Datensicherheit Susan Landau eine kompakte, etwas mehr als 100 Seiten lange Zeitdiagnose vor, in der sie sich technischen Tracing-, Testing- und Isolation-Tools widmet, die in der Frühphase der COVID-19-Pandemie zum Einsatz kamen. Mit Frühphase ist die Zeit gemeint, in der COVID-19 zwar bereits den Status einer globalen Katastrophe hatte, die es mit ebenjenen Instrumenten zu bekämpfen galt, in der aber noch keine Impfstoffe flächendeckend verfügbar waren. Vor diesem Hintergrund fragt das Buch nach den Implikationen und Konsequenzen von großflächig verwendeten Kontaktverfolgungsanwendungen (contact tracing apps), die technische Lösungen für komplexe Problemlagen versprechen. Allerdings sind, so Landaus These, die Applikationen nicht immer in der Lage, die multifaktoriellen und dynamischen Situationen im Kontext von Public Health zu modellieren. Landau nimmt eine dezidiert kritische Perspektive ein, indem sie konkrete Anwendungen unter anderem auf ihre privatheits-, überwachungs- und diskriminierungspraktischen Aspekte befragt. Auf dem Prüfstand steht nicht weniger als ein solutionistisches Technikversprechen, das, so Landaus Fazit, die Aussagekraft von algorithmischen prediction tools überhöht und kontextspezifische Details vernachlässigt.

Tracing-Apps zwischen Handlungsdruck und Kontextsensitivität

Landau startet ihre Untersuchung mit historischen Anekdoten zu anderen Pandemien wie dem Londoner Ausbruch der Cholera im 19. Jahrhundert (S. 13), den regelmäßig stattfindenden Malaria-Wellen (S. 2) oder der HIV-Epidemie in den 1990er-Jahren (S. 25). Auch in diesen Phasen – so die Autorin – kamen immer wieder Überwachungstechniken zum Einsatz, die allerdings häufig von sensiblen Befragungs- und Begutachtungsprozessen begleitet waren. Landau bezeichnet die damaligen menschlichen „contact tracers“ als zugleich „part detective(s), part social worker(s), and part medical investigator(s)“ (S. 14). Die Darstellungen machen deutlich, wie wichtig die beiden folgenden Punkte bei der Einführung von technischen Tracking-Apps sind, die auf Vorhersagen basieren und mit Generalisierungen arbeiten:[1] Es braucht zum einen eine hinreichende Sensibilität für die Lebensbedingungen von Minderheiten, zum anderen müssen die Nutzer*innen auf den sicheren Umgang mit ihren Daten vertrauen können. Ebendiese Anforderungen sieht Landau allzu oft nicht erfüllt – insbesondere dann, wenn Staaten, die solche Technologien einsetzen, dabei mit privatwirtschaftlichen Unternehmen kooperieren.

Zunächst freiwillige Anwendungen werden mit einer Verschärfung der pandemischen Situation Stück für Stück verbindlich.

Ihren Idealzustand – eine kontextsensitive und vertrauliche Überwachung in Rücksprache und Auseinandersetzung mit den Überwachten – nutzt Landau im Folgenden als Kontrastfolie, um die Problematik gegenwärtig genutzter COVID-Tracker aufzuzeigen. So zum Beispiel die in Singapur eingesetzte App TraceTogether, die als „government owned app“ (S. 44) Proximity-Daten (also Informationen über zeitliche und physische Nähe zweier Personen) im Falle von nachgewiesenen Ansteckungen an das staatliche Gesundheitsministerium weiterleitet, damit dieses die Kontaktpersonen informieren kann. Das Problem: Die so zentralisierten und staatlich einsehbaren Daten sind auch anderweitig nutzbar, beispielsweise – wie in Singapur – für Strafverfolgungszwecke.[2] Neben technischen Fallstricken wie Inkompatibilitäten mit Apple- oder Android-Umgebungen illustriert das TraceTogether-Beispiel eine weitreichende Verschiebung: Zunächst freiwillige Anwendungen werden mit einer Verschärfung der pandemischen Situation Stück für Stück verbindlich. So ist es mittlerweile in ganzen Wohnvierteln oder Arbeitsumgebungen Singapurs, in denen besonders häufig Ansteckungen stattfinden, für die dort lebenden oder angestellten Arbeiter*innen Pflicht, die TraceTogether zu nutzen. Andernfalls dürften sie nicht weiterarbeiten und könnten ihren Lebensunterhalt nicht mehr verdienen.

Neben der erzwungenen Effektivität kritisiert Landau auch die Legitimität von contact tracing apps als Public-Health-Instrumente. Die Anwendungen, die am besten funktionieren, sind häufig diejenigen, die auf digitale Infrastrukturen von Big-Tech-Unternehmen aufsitzen, etwa auf das Google-Apple-Notification-System (GAEN) (S. 61). Dadurch entsprechen die Tools den Richtlinien des jeweiligen Unternehmens, die sich von den Überwachten meist nicht nachvollziehen lassen. Bei aller Skepsis führt Landau auch Positivbeispiele an. So spielt die Tracing-App des britischen National Health Services (NHS) alle aus den Daten gewonnenen Rückschlüsse an die Nutzer*innen der App zurück, sodass diese die Informationen nach eigenem Belieben teilen oder verbergen können.

Im Anschluss an die empirischen Erkundungen, die äußerst materialnah sind und die ich hier nur in vereinzelten Schlaglichtern wiedergegeben kann, formuliert Landau eine Reihe von Policy-Empfehlungen. Sie sind ein Plädoyer für sensiblere Verfahren der Risiko- und Gefahrenabschätzung, mit deren Hilfe man Maßnahmen, die die Verbreitung des Virus eindämmen sollen, abwägen kann gegenüber Folgeproblemen, die sich möglicherweise aus der Nutzung von Tracing Apps ergeben. Was bedeuten durch Datenanalysen evozierte Interventionen für bestimmte Teile der Bevölkerung? Für wen sind gewisse Kontaktzonen verzichtbar und für wen nicht?

Zudem spricht sich Landau klar dagegen aus, die Nutzung bestimmter Apps zu forcieren beziehungsweise zu erzwingen, indem man sie nahezu unverzichtbar macht – beispielsweise für zentrale Infrastrukturen des öffentlichen Lebens. Überdies sollte, so fordert Landau weiter, jede Software, die solchen Apps zugrunde liegt, als Open-Source-Programm offengelegt werden, sodass die Nutzer*innen den entsprechenden Code einsehen und gegebenenfalls anpassen können (S. 71). Hierfür bräuchte es außerdem Explainability-Maßnahmen, die solche Technologien in ein auch für interessierte Laien nachvollziehbares Design übersetzen.

Fragen, die offen bleiben

Grundsätzlich ist Landaus People Count ein gut verständliches, leicht zugängliches und wunderbar exemplarisch argumentierendes Buch, das die Folgen der digitaltechnischen Überwachung von Kontakten so überzeugend wie eindringlich darstellt. Obgleich viele der Risiken und Empfehlungen nicht neu sind, gelingt es Landau, ein ungewöhnlich pragmatisches Bild zu zeichnen, indem sie die Fälle für sich selbst sprechen lässt. Die Autorin will Policy-Maßnahmen, die sich im Umgang mit epidemiologischen Ausnahmezuständen bewähren müssen, kritisch beleuchten – dem so formulierten Ziel wird ihr Buch zweifelsohne gerecht. Dennoch hätte den beispielhaften Skizzen eine zumindest kursorische Beschäftigung mit jenen weiterführenden Fragen gutgetan, die sich dem Bereich der Surveillance Studies und, allgemeiner, der Wissenschafts- und Technikforschung derzeit besonders dringlich stellen.

Eine Anschlussfrage betrifft die fortlaufende Überwachung: Wie lassen sich – eingedenk der von Landau beschriebenen Probleme – Ansteckungsverläufe nachvollziehen, ohne dabei die Privatsphäre der Überwachten zu verletzen oder zur Benachteiligung einzelner Bevölkerungsgruppen beizutragen? Landau bleibt hier auf halbem Weg stehen, wenn sie ohne nähere Ausführung fordert, dass Public-Health-Expert*innen und Sozialwissenschaftler*innen solche Apps mitentwickeln sollen, um so die Tracking-Mechanismen kontextsensitiver zu machen. Sie macht weder konkrete Vorschläge, wie eine entsprechende Beteiligung aussehen könnte noch an welchen Stellen des Entwicklungsprozesses sie stattfinden müsste. Ein genauerer Blick auf die Überführung politischer Entscheidungen in technische Entwicklungsverfahren zeigt, dass man die beauftragten Entwicklerbüros zur Implementierung der von Landau geforderten Beteiligungsformate anhalten und sie dabei unterstützen müsste.

Die systematische Einbindung sozialwissenschaftlicher Expertise in den Entwicklungsprozess bedarf einer gewissen Sensibilität für die Abläufe des Entwickelns – und zwar losgelöst von den eigentlichen Praktiken des Programmierens.

Überdies ist die Entwicklung solcher Anwendungen weit weniger kompakt und linear, als Landaus Ausführungen es nahelegen. Die Arbeit an den hinter solchen Tracking-Apps stehenden Modellen verläuft in Bahnen digitaler Infrastrukturen: Vortrainierte Algorithmen werden mit von Smartphones aufgezeichnete Standorten gefüttert und speichern Informationen in verteilten Datenbanken. Die systematische Einbindung sozialwissenschaftlicher Expertise in den Entwicklungsprozess bedarf einer gewissen Sensibilität für die Abläufe des Entwickelns – und zwar losgelöst von den eigentlichen Praktiken des Programmierens. Hier könnte man in digitale Infrastrukturen sozialwissenschaftliche Reflexionsschleifen einbauen, um vor dem eigentlichen Training von Algorithmen über geeignete Sample-Daten, Klassen, Features und Testverfahren nachzudenken. Nur so lassen sich soziologische Konzepte der „Privatheit“, der „Distanz“ und der „Situiertheit“ jenseits von einfach Add-On-Ethiken dauerhaft in Klassifikationsprozesse einschreiben.

Ein weiterer Punkt, der in People Count weitgehend unbestimmt bleibt, ist die Frage nach der Ontologie des Virus.[3] Wie ist es entstanden, wie laufen Ansteckungen ab und was heißt es, mit ihm zu leben? Die von Landau untersuchte Idee des Tracking ist mit einem nicht nur unsichtbaren, sondern auch niemals vollumfänglich ,bekämpfbaren‘ Gegenspieler konfrontiert. Eine Theorie des mittelfristigen Zusammenlebens mit Viren – unter anderem ermöglicht durch technische Tools ihrer Sichtbarmachung – steht meines Erachtens noch aus.

All das sind offene Fragen, die es noch zu beantworten gilt. So gesehen ist People Count ein guter Startpunkt, um jene Aspekte zu identifizieren, die im Verlauf der nächsten Pandemiewellen sozialwissenschaftlich bedeutsam werden könnten.

  1. Adrian Mackenzie, The Production of Prediction. What Does Machine Learning Want?, in: European Journal of Cultural Studies 18 (2015), 4–5, S. 429–445.
  2. Andreas Illmer, Singapore Reveals Covid Privacy Data Available to Police [21.12.2021], in: BBC News, Singapore, 5.1.2021.
  3. Astrid Schrader, Marine Microbiopolitics. Haunted Microbes before the Law, in: Irus Braverman / Elizabeth R. Johnson (Hg.), Blue Legalities. The Life and Laws of the Sea, Durham, NC 2019, S. 255–274; John Dupré / Stephan Guttinger, Viruses as Living Processes, in: Studies in History and Philosophy of Biological and Biomedical Sciences 59 (2016), S. 109–116.

Dieser Beitrag wurde redaktionell betreut von Wibke Liebhart.

Kategorien: Daten / Datenverarbeitung Digitalisierung Gesundheit / Medizin Sicherheit Technik

Henning Mayer

Henning Mayer ist wissenschaftlicher Mitarbeiter und Doktorand am Munich Center for Technology in Society (MCTS) der TU München. Nach einem Studium der Kognitionswissenschaften (M.Sc.) und Soziologie (M.A.) in London und Bielefeld forscht und lehrt er aktuell zu Themen der Sozialrobotik, insbesondere zur Human-Robot-Interaction, zu den Praktiken und Implikationen der Entwicklung und Programmierung von Robotern im Labor sowie zum Verhältnis von maschineller und sozialer Intelligenz.

Alle Artikel

PDF

Zur PDF-Datei dieses Artikels im Social Science Open Access Repository (SSOAR) der GESIS – Leibniz-Institut für Sozialwissenschaften gelangen Sie hier.

Empfehlungen

Timo Daum

Privacy im digitalen Kapitalismus

Rezension zu „Industry Unbound. The Inside Story of Privacy, Data, and Corporate Power” von Ari Ezra Waldman

Artikel lesen

Jonathan Kropf

Kontrollierte Verbindungen

Rezension zu „Die Macht der Plattformen. Politik in Zeiten der Internetgiganten“ von Michael Seemann

Artikel lesen

Jonathan Kropf

Schleichender Wandel mit ambivalenten Folgen

Rezension zu „Digitale Transformation“ von Jan-Felix Schrape

Artikel lesen

Newsletter