Philosophin Judith Simon über IT-Ethik: „Wer bestimmt, wie Dinge funktionieren?“

Entwickeln überwiegend weiße Männer neue Technologien, steigt die Gefahr von Diskriminierung – ein Thema für die Hamburger Computerethikerin Judith Simon.

Wenn Technik auf Diversität trifft: Automatischer Seifenspender, der dunkle Haut nicht als solche erkennt – und die Seife verweigert (M.). Foto: Chukwuemeka Afigbo

taz: Frau Simon, Sie bekleiden eine Professur für „Ethik in der Informationstechnologie“. Hat das mehr mit den Gesetzen für Roboter zu tun, die der SF-Autor Isaac Asimov einmal formulierte – oder mit dem Datenschutz bei Facebook?

Judith Simon: Tatsächlich eigentlich mit beidem. Im Moment arbeite ich mehr zu Big Data und Künstlicher Intelligenz und dementsprechend auch zu Datenschutz und Privatsphäre, aber auch zu Gleichheit und Schutz vor Diskriminierung und ähnlichen Fragen. Und da ist Facebook natürlich einer der Akteure, die da immer im Zentrum stehen. Zu Robotern arbeiten Kollegen von mir, das ist nicht mein eigener Schwerpunkt, aber auch ein großes Thema in der Computerethik.

So etwas wie der – oder eigentlich: der jüngste – Nutzerdaten-Skandal bei Facebook, erleichtert Ihnen das die Arbeit?

Für Leute, sie sich ein bisschen auskennen, war es keine Überraschung. Weil man ja wusste, wie das funktioniert, welches die ökonomischen Modelle hinter Facebook sind, wie die Apps funktionieren. Ein Skandal war es – aber das war es auch schon vorher. Was die Sache nun nochmal in die Medien gebracht hat, war wohl die schiere Menge der betroffenen Nutzer. Der eigentliche Skandal sind diese Geschäftsmodelle, nicht unbedingt, dass es jetzt raus gekommen ist. Aber wenn so etwas ein solches Ausmaß hat, rückt es Themen für Ethik und IT oder Ethik und Digitalisierung nochmal stärker ins Zentrum.

Das heißt, Sie müssen in Zeiten der Cambridge-Analytica-Enthüllungen seltener erklären, was Ihr Job ist?

Genau. Es kommen aber auch viel mehr Anfragen an unsere Gruppe.

Seit wann gibt es denn Ihre Professur eigentlich?

Die ist ziemlich neu. Die Professur habe ich im Februar 2017 übernommen, und die Mitarbeiter sind alle im Lauf des letzten Jahres dazu gestoßen.

Und wie steht es um Menschen mit vergleichbaren Gebieten in der deutschen Hochschullandschaft insgesamt?

Da ist noch Luft nach oben. Meine Professur ist, so weit ich weiß, die erste und einzige für Ethik in der Informationstechnologie an einem Informatik-Institut. Es gibt natürlich noch mehr Institut und Orte, an den zu IT und Gesellschaft geforscht wird, unter anderem in Berlin und München, es gibt auch Institute für Medienethik, in Stuttgart etwa. In Holland gibt es gerade an den technischen Universitäten einige Philosophie-Professuren, die schon seit einigen Jahren stark interagieren mit Kollegen aus der Informatik, aber auch anderen Ingenieurswissenschaften; dann gibt es noch das Oxford Internet Institute, und in den USA gibt es eine doch schon 20 Jahre alte Tradition der „Values in Design“, wo eben auch Philosophen mit Informatikern zusammenarbeiten.

41, hat Psychologie in Berlin studiert und wurde in Wien in Philosophie promoviert. Nach Forschungen unter anderem in Kopenhagen, Wien, Paris, Karlsruhe, Berlin und an der Stanford University ist sie seit Anfang 2017 Professorin für Ethik in der Informationstechnologie am Fachbereich Informatik der Universität Hamburg.

Kann – oder muss – es eigentlich eine neue Ethik geben fürs Digitale? Geht es da nicht im Kern um vertraute Zutaten, nämlich darum, wie der Mensch mit dem Menschen umgeht?

Das ist eine alte Debatte auch in der Computerethik: Ist es nur die Anwendung von hergebrachten Ethiken – der Tugendethik, der Pflichtethik, des Utilitarismus – auf neue Fragen? Oder muss eine neue Ethik her? Ich glaube, es ist eine Mischung aus beidem. Einerseits werden im Digitalen bestimmte Fragen nur verstärkt, es stellen sich gleiche Fragen unter anderen Vorzeichen: nach Gleichheit, nach Freiheit, nach Gerechtigkeit. Die sind insofern natürlich nicht neu.

Aber?

Was sich verändert hat, ist, dass andere Akteure ins Spiel gekommen sind: Die klassischen Ethiken beziehen sich ja auf den menschlichen Individual-Akteur, auf das Individuum, das handelt und in seinem Handeln sich leiten lassen soll. Und nun hat man, bis zu einem gewissen Grad zumindest, auch nicht-menschliche Akteure, Künstliche Intelligenz; die ist natürlich nur in bedingtem Maße handlungsfähig oder intelligent. Aber trotzdem sind das neue Akteure, und man hat es etwa mit verteilten Entscheidungen in soziotechnischen Netzwerken zu tun. Und da braucht man vielleicht eine Ethik, die auch Handeln jenseits von Individuen in den Blick nimmt.

Bei meinen Recherchen zu diesem Gespräch bin ich auf einen interessanten, wenn auch etwas nebulösen Satz gestoßen: „Digitale Ethik gerät unter den generellen Verdacht der Zensur.“

Mir ist nicht ganz klar, was damit gemeint sein soll.

Diskussion „Gewinner und Verlierer im digitalen Zeitalter“ mit Judith Simon und Joachim Bühler, Geschäftsführer des TÜV-Verbandes: Do, 31. 5., 19 Uhr, GLS-Bank Hamburg, Düsternstraße 10

Mein Verdacht ist, dass es da um Redefreiheit und angebliche Sprechverbote geht. Wiederum ja eine Debatte, für die es des Internets nicht erst bedurft hätte.

Das sind natürlich heiße Debatten, aber es gibt da auch die Tendenz, die Mitte zu vergessen und sich sozusagen radikal zu positionieren: also entweder für totale Redefreiheit, als würde es die immer geben; bestimmte Dinge sind ja gesetzlich schon abgedeckt, nationalsozialistische Wiederbetätigung oder Hassrede etwa, und da gibt es ja auch gute Gründe dafür, dass man nicht alles überall äußern kann. Bestimmte Dinge sind tatsächlich nicht neu.

Zum Beispiel?

Die Frage, zum Beispiel, wo die Freiheit des einen endet, wann sie einen anderen verletzt. Aber man muss die Dynamiken online mitdenken und im Detailfall entscheiden, was das heißt, wie es zu regulieren ist und von wem. Ich bin kein Freund von einfachen Antworten, und Begriffe wie Zensur werden da ja auch sehr schnell als Kampfbegriffe missbraucht. Sich auf die Seite derjenigen zu schlagen, die sagen: Jedes Löschen ist Zensur – das ist leicht, wenn man nicht betroffen ist von Hassrede.

Oder Schlimmerem.

In Sri Lanka hat Facebook gerade erst dazu beigetragen, dass Gewalt zwischen Buddhisten und Muslimen eskaliert ist – nicht absichtsvoll natürlich, aber durch die Art, wie Menschen Dinge widergespiegelt werden, die sie gerne hören. Das hat zu Gewalt geführt, ohne dass das irgend jemand bewusst so gewünscht hätte – einfach weil Algorithmen oft das optimieren, den Leuten das zu zeigen, das sie in Bann hält. Und diese Dynamik ist differenzierter zu betrachten als durch so eine banale „Freie Rede versus Zensur“-Debatte.

Sie nehmen in dieser Woche Platz auf einem Podium der Akademie der Nordkirche über das Thema „Gewinner und Verlierer im digitalen Zeitalter“ – wer ist denn heute wer, aus Ihrer Sicht?

Es ist wie so oft: Die, die schon viel haben, kriegen noch mehr, und die, die wenig haben, geht es möglicherweise schlechter. Das muss nicht, aber kann sich verstärken durch Digitalisierung.

Hat das auch etwas zu tun mit den „jungen, reichen, weißen Männern“, die – der Wissenschaftlerin Kate Crawford zufolge – vorrangig die Digitalisierung betreiben?

Wer Software entwickelt, trifft bestimmte Entscheidungen darüber, wie sie funktioniert. Und da kann es zu bewussten oder unbewussten Verzerrungen kommen. Es gab dieses Video, in dem ein automatischer Seifenspender einer schwarzen Hand, sozusagen, keine Seife gespendet hat – weil die Sensoren nur auf weiße Haut reagieren. Das ist ein erhellendes Beispiel dafür, wie überhaupt nicht böse gemeinte oder einfach Design-Entscheidungen dazu führen, dass Menschen diskriminiert werden. Und je weniger divers Entwicklungsteams sind, umso eher passiert so etwas; je mehr weiße, reiche Mittelklassemänner Technologien entwickeln, umso eher besteht diese Gefahr. Andererseits ist das Problem selten die digitale Technologie selbst, sondern der ökonomische Kontext, in dem Technologien entwickelt werden.

Was heißt das?

Wenn ich eine Art von Aufmerksamkeitsökonomie habe und versuche, Menschen so lange wie möglich auf den Plattformen zu halten, kann das Segregierung verstärken. Und die Frage ist immer: Wer bestimmt, wie Dinge funktionieren? Wer ist Leidtragender?

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.