Technik ist nicht wertfrei

Wir brauchen mehr demokratische Prozesse in der Technologieentwicklung

Interview mit Jutta Weber, Technikforscherin und Professorin für Mediensoziologie an der Universität Paderborn

Frau Weber, Sie sind unter anderem von der feministischen Technowissenschaft geprägt. Worum geht es da?

Die feministische Technowissenschaft ist in den 70er, 80er Jahren aus einer politischen Bewegung entstanden. Ausgangspunkt war die Kritik an der Militärtechnologie, an der Aufrüstung, aber auch an den Reproduktionstechnologien.

Wichtig wurde die Erkenntnis, dass spezifische Lebenslagen von Frauen in den Natur- und Technikwissenschaften nicht berücksichtigt wurden. In der Medizin, wurden Medikamente nach dem Standard „weißer Mann“ verordnet. In der Informatik ist der Großteil der Forscher weiß, männlich und oft jung. Dabei geht es nicht um eine essentielle Differenz zwischen Mann und Frau, aber unterschiedliche Lebenswelten führen zu unterschiedlicher Fokussierung. Ganz simpel zeigt sich das, wenn Schriftgrößen so klein sind, dass sie für Ältere kaum zu lesen sind oder wenn Verkehrsplanungen die Bedürfnisse von Müttern mit Kinderwagen oder von Behinderten nicht beachteten.

Neben einem feministischem Fokus auf Geschlechterverhältnisse geht es auch um breitere gesellschaftliche Fragen.

Sie sagen, Technik sei auch Politik. Können Sie das erläutern?

Auf Latein sagen wir „cui bono?“ Wem zum Vorteil? Das ist die Kernfrage von „politisch“. Sich politisch verstehende Science-and-Technology-Studies fragen: Welche Werte, welche Normen werden produziert und wem nützt diese Technologie? Die Frage nach den gesellschaftlichen Konsequenzen einer Erfindung, einer Technologie wird zu selten gestellt. Oft heißt es von Ingenieur:innen, was wir machen, ist neutral und wie das dann angewendet wird, das muss die Politik entscheiden – Technik ist weder neutral noch wertfrei. Sie erzeugt Effekte, und die müssten vorab breit diskutiert werden. Stattdessen kommt die Frage oft erst im Nachhinein, und dann ist man bereits mit ungewollten Konsequenzen konfrontiert und der Frage, wie beseitigt man diese. Die Politik kommt immer zu spät. Wir müssten also vorher fragen: Wollen wir das als Gesellschaft? Es gibt bis heute kaum demokratische Prozesse, um über Technologie zu sprechen und sich ins Benehmen zu setzen, welche Entw icklungen man befördern will und welche nicht. Wie gehen wir damit um, dass immer mehr Arbeit von Maschinen übernommen wird.

Heute ist die Welt von Algorithmen geprägt. Wie gehen wir damit um?

Das Problem ist, dass Algorithmen, gerade wenn sie in der privaten Wirtschaft genutzt werden, geblackboxt werden. Die Anbieter:innen weigern sich zu verraten, wie ihre Algorithmen arbeiten. Wie funktioniert zum Beispiel der Google-Suchalgorithmus? Das war auch der Kampf zwischen der Luca-App und der Corona-Warn-App. Letztere ist open source und Expert:innen können sich mögliche Effekte anschauen, wie es funktioniert und sie konnten Alternativen aufzeigen.

Vieles ist sehr komplex. In meinen Seminaren habe ich gute Erfahrungen damit gemacht, als erste Aufgabe zehn Firmen, wie zum Beispiel Facebook oder eine Krankenkasse anschreiben zu lassen. Wir haben ja als EU-Bürger:innen und auch als deutsche Staatsbürger:innen das Recht, von jeder Organisation zu erfahren, welche Daten sie über uns gespeichert haben. Sie müssen innerhalb von vier Wochen antworten. Und wenn dann für die Einzelne erfahrbar wird, welche Mengen von Daten über uns gespeichert werden, wirkt das nachhaltiger als eine rein theoretische Debatte zum Thema Überwachung.

Wir brauchen viel mehr technopolitische Bildung. Dann hätten die Menschen auch Möglichkeiten, zum Beispiel mit neuen Algorithmen umzugehen, und zwar auch in ihrem Sinne. Man denke an den Foodora-Fahrer, der merkte, dass er aufgrund seiner Schnelligkeit immer längere Strecken vom Algorithmus zugewiesen bekam. Ab da fuhr er langsam, hielt an jeder Ampel, sprach mit den Leuten, und erhielt so im Lauf der Zeit mehr Kund:innen auf kürzeren Strecken und nahm dadurch mehr Trinkgeld ein. So hat er mit dem Algorithmus erfolgreich gespielt.

In die Technik wird oft die Hoffnung auf die Lösung gesellschaftlicher Probleme gelegt, wie etwa in der Verkehrspolitik. Zu recht?

Autonome Elektroautos sind nicht die Lösung unserer Probleme, sondern setzen die des Individualverkehrs nur mit neuen – genauso schlechten – Mitteln fort. Es ist der verzweifelte Versuch der großen Autofirmen, am Leben zu bleiben. Die Entwicklung von autonomen Autos ist noch weit davon entfernt alltagstauglich zu sein. Es gibt viele ungelöste Probleme, aber sie wird von der Industrie gepusht. Eine entsprechend funktionierende Infrastruktur für autonomes Fahren ist nicht vorhanden und würde sehr viel Steuergelder verschlingen.

Der Großteil der ethischen Debatten zum Verhältnis Mensch-Maschine ist höchst problematisch, nicht zuletzt deshalb, weil bis heute eindimensional nach dem jeweiligen Träger oder der Trägerin der Verantwortung gefragt wird. Angesichts der Komplexität technischer Systeme ist das keine sinnvolle Frage. Man sieht das gut an dem vieldiskutierten Beispiel autonomer oder tele-operierter Drohnen: Es wäre eine Illusion zu glauben, dass Tötungsbefehle und der Einsatz von drohnengestützten Raketen beziehungsweise Bomben unabhängig von der eingesetzten Technologie sind. Man trifft hier unter anderem Entscheidungen auf der Grundlage von zweidimensionalen Kamerabildern. Die Menschen an den Systemen haben so gut wie keine Kenntnisse über die soziokulturellen Kontexte, der von ihnen bekämpften Menschen. Das führt zu Fehlentscheidungen. Heute geht man davon aus, dass bei den bisherigen Drohnenangriffen vermutlich nicht mehr als zwei Prozent hochkarätige Terr orist:innen getötet wurden, aber mindestens ein Drittel der Toten Zivilist:innen sind. Das zeigt, die Problematik dieser Technologie.

Sie forschen viel zu datengetriebener Kriegspolitik. Der ehemalige CIA-Direktor Michael Hayden sagte einmal „Wir töten Menschen basierend auf Metadaten“. Können Sie uns mehr zu den Tötungslisten im „Kampf gegen den Terrorismus“ erzählen?

Sich mit Militärtechnologien zu beschäftigen ist schwierig, weil es kaum Materialien und empirischen Zugang zum Feld gibt. Tötungslisten gibt es in den USA schon lange – von verschiedenen Geheimdiensten, aber auch vom Pentagon. Die wurden schon vor einigen Jahren zusammengelegt – vermutlich auch, um Data Mining zu optimieren. Soweit bekannt, werden bei der sogenannten Disposition Matrix, also der US-Tötungsliste, Datennetzwerke nach bestimmten Kriterien durchsucht. Dazu zählen Metadaten – wie etwa: wer kommuniziert mit wem, welche Reiserouten werden genutzt, die mit denen von bekannten Terrorist:innen abgeglichen werden – ohne hier näher auf diesen Begriff einzugehen.

So wurde der renommierte Al-Jazeera-Journalist Ahmad Muaffaq Zaidan wegen seiner Reisemuster, seinen Telefonverbindungen und aufgrund der Quellen, die er benutzt hat, ganz oben auf die Tötungsliste gesetzt. Er hatte sich mit Osama bin Laden und ähnlichen Leuten immer wieder zu Interviews getroffen. Die Software kann nur die vorgegebenen Kategorien berücksichtigen und ignoriert den jeweiligen Kontext. Das macht das Vorgehen problematisch. Meist wird darauf verwiesen, dass maschinelle Ergebnisse vom Menschen geprüft werden müssen, aber man weiß aus der Forschung, dass es weit verbreitet ist, der Technik mehr zu vertrauen als der eigenen Einschätzung.

Sie haben beschrieben, wie sich die grundsätzliche Logik, mit der an Sicherheitsfragen herangegangen wird, verändert hat und wie sich das bei Algorithmen zeigt, die primär mit Wahrscheinlichkeiten arbeiten.

Da hat eine Verschiebung von Kausalität zu Korrelation stattgefunden. Vorhersage ist eine zentrale Kategorie geworden. Viele dieser sogenannten prädiktiven Algorithmen gehen von der problematischen Annahme aus, dass beispielsweise Handlungen, die in der Vergangenheit passiert sind, sich mit hoher Wahrscheinlichkeit in der Zukunft wiederholen. Damit einher geht häufig die Abkehr von der Unschuldsvermutung und ein zunehmender Glaube an repetitive Muster, die als Grundlage für präemptives Handeln genutzt werden.

Diese Perspektive ist natürlich älter und findet sich schon beim Schufa-Algorithmus, der mit der Annahme arbeitet, dass ein Mensch, der in der Vergangenheit einen fälligen Kredit nicht sofort bezahlt hat, auch in der Zukunft seine Schulden nicht bezahlen wird. Ob sich die Lebenssituation dieses Menschen geändert hat, interessiert die Schufa nicht. Es wird von der aktuellen Situation abstrahiert, was zu Problemen führt – beim Schufa-Algorithmus genauso wie bei auf Metadaten basierten Tötungslisten. Und es ist erstaunlich, in wie vielen Bereichen unterdessen so gearbeitet wird. Denken Sie an die Personalauswahl per Stimm- oder Videoanalyse. Auch diese basieren häufig auf der Annahme, man könnte gute zukünftige Manager:innen dadurch finden, dass man die Profile der Bewerber:innen automatisiert mit denen der bisherigen Manager:innen vergleicht. Ich könnte jetzt böse sagen, wenn 80 Prozent der erfolgreichen Manager Schuhgröße 45 haben, dann nehmen wir in Zukunft auch nur noch Manager mit dieser Schuhgröße – und vermutlich keine Managerinnen, denn viele Frauen mit Schuhgröße 45 gibt es nicht. Die anderen kommen nicht mehr in Betracht. Die kategorial eingehegte Wiederholung des immer Gleichen ist nicht nur irrational, sondern auch für jede Gesellschaft dysfunktional. Man stellt das Vorhandene auf Dauer mit Blick auf Kriterien, die zumindest häufig problematisch sind.

Gibt es überhaupt eine Chance, Fehlentwicklungen der Digitalisierung Einhalt zu gebieten?

Zum einen gibt es in diesem Bereich viele NGOs – man denke an Algorithmwatch, Netzpolitik.org, Edri oder den Chaos Computer Club.

Aktuell gibt es auch eine große Bewegung gegen Face-Recognition. Es gibt eine EU-weite Bürger:innenbewegung gegen Gesichtserkennung.* San Francisco und der US-Bundesstaat Maine haben sich dagegen entschieden, da sie sie als Grundrechtsverletzung einstufen. Diese Entwicklungen machen trotz aller Probleme Mut.

Welche staatlichen oder rechtlichen Maßnahmen wären denn sinnvoll, um nicht immer hinterher zu hinken?

Eine Möglichkeit ist, in Forschungsprojekte Sozial- oder Kulturwissenschaftler:innen zu integrieren. Eine ethische Abschätzung mit Fokus auf individuelle Vor- und Nachteile findet heute schon häufiger statt. Aber die gesellschaftliche Dimension wird meist ausgeblendet: Es gilt, Fragen zu stellen danach, wie neue Technologien unsere Gesellschaft als Ganzes verändern werden und ob wir das wollen.

Für diese Fragen wäre es gut, Bürger:innenräte wie in Irland oder Frankreich einzusetzen, um diese Probleme auf einer breiten Basis demokratisch zu diskutieren. So können sich Menschen aus unterschiedlichen Kontexten intensiv mit diesen Technologien auseinandersetzen und Vorschläge entwickeln, die nicht primär von Lobbies getrieben sind.

Welche Rolle könnte Technologie in einer anderen Gesellschaft zukommen?

Technologie ist nicht per se gut oder schlecht, aber so wie sie umgesetzt und eingebettet ist, hat sie unterschiedliche Effekte.

Ich bin ein großer Fan des Internets. Ich schätze zum Beispiel, dass man mit Menschen weltweit sehr schnell kommunizieren kann. Aber wir müssen über die Folgen der Kommerzialisierung reden. Ein offenes Forum des freien Meinungsaustausches, wie man es in den 1980ern erträumte, gab es nie. Aber die hermetisch abgeriegelten und profitgetriebenen Räume von Facebook oder Instagram haben die Lage weiter verschärft. Zudem wird das damit einhergehende Energieproblem immer deutlicher. Zum Beispiel muss man Filme nicht streamen. Man könnte wunderbar Datenbanken anlegen, von denen die Leute wie bei Bibliotheken diese umsonst herunterladen könnten. Aber das ist natürlich kein erwünschtes Geschäftsmodell.

Es gilt, generell mehr Aufmerksamkeit darauf zu richten, wie und von wem zu welchem Zweck Technologie gestaltet wird. Wir haben in den letzten Jahrtausenden tolle Sachen erfunden – von der Badewanne und dem Fahrrad bis zur Solarenergie. Aber eben auch die Atombombe, Asbest oder SUVs. Das dürfen wir nicht nur den Ingenieur:innen und der Politik überlassen. Wir sollten stattdessen gemeinsam darüber nachdenken und entscheiden, welche Entwicklungspfade wir beschreiten wollen – und welche nicht.

* https://reclaimyourface.eu/

Das Gespräch führte Violetta Bock. Sie wohnt in Kassel und ist Redakteurin bei der SoZ (Sozialistische Zeitung).