Interview mit Wirtschaftsethiker Dr. Thorsten Busch

«Technik ist niemals neutral»


Die Digitalisierung verwandelt die Gesellschaft. Wie genau, das ist allerdings nicht vorbestimmt. Denn Technologie selber ist keineswegs wertneutral, sagt der Wirtschaftsethiker Dr. Thorsten Busch.


Text: Peter Sennhauser, Bilder: ©Hannes Thalmann, 04. Dezember 2017




Herr Busch: Was ist Ethik?


Ethik ist die Wissenschaft der Moral. Sie dreht sich um die Frage: Was soll ich tun? Sie sucht nach den richtigen Gründen für Handlungen – aus Sicht des Individuums und der Gesellschaft.


Gibt es eine Ethik der Digitalisierung?


Ja – mein Twitteraccount heisst so (grinst). Nun, man kann die Digitalisierung durch die Ethikbrillle ansehen. Es gibt zum Beispiel die «Californian Ideology» - das Ethos des Silicon Valley. Dort leben die Menschen, welche die Technik machen, also die Digitalisierung vorantreiben, nach ihren eigenen moralischen Vorstellungen, die sie uns vorschreiben.

Zur Person

Dr. Thorsten Busch ist Senior Research Fellow am Institut für Wirtschaftsethik an der Uni Sankt Gallen und Affiliated Faculty am Technoculture, Art & Games Research Centre Concordia University, Montréal. Er befasst sich unter anderem mit Themen wie digitale Unternehmensethik, Internet-Forschung, Corporate Citizenship in der IT-Branche, Politik und IT, Ethik sozialer Netzwerke und digitale Nachhaltigkeit.


«In technischen Lösungen sind immer die Werte derer eingebaut, die sie erfunden haben, und derer, die sie finanzieren.»


Wenn man von digitalem Wandel spricht, redet man von Technologie - wie kann Technik eine Moral widerspiegeln, die ist doch neutral?


Das ist leider ein hartnäckiger Mythos, und genau das versuche ich zu zeigen. In technischen Lösungen sind immer die Werte derer eingebaut, die sie erfunden haben, und derer, die sie finanzieren. Die Venture-Kapitalisten im Silicon Valley beeinflussen mit ihrer Finanzierung die Moral eines Startups ebenso wie die Gründer.

Neben diesen Fakten gibt es noch einen Haufen Vorurteile und Verzerrungen: Wir Menschen scheinen unausweichlich zu glauben, dass die Maschine mehr weiss als wir selber. Dafür gibt’s alte Forschungsbeispiele wie jenes zur Rechtschreibkorrektur in Word, der die Anwender blind vertrauen, auch wenn sie offensichtliche Fehler vorschlägt.


Aber inzwischen entwickelt sich Technik ja schon fast autonom. Mit «machine learning», das aus einem Lern-Algorithmus und grossen Datenmengen besteht. Was kann dabei im ethischen Sinne schief gehen?


Zwei Dinge: Man kann die Maschine mit «schlechten Daten» füttern. In ihrer Lernphase ist die Maschine wie ein Kind, das die Wertsysteme aus seinem Umfeld automatisch auf- und übernimmt. Wenn man jetzt als Lehrmaterial die Wortmeldungen von Hunderttausenden Amerikanern aus Twitter oder Facebook nimmt, die voll sind von Sexismus und Rassismus, hat das eindeutige Auswirkungen...


...wie Microsofts Chatbot «Tay», den die Benutzer binnen weniger Stunden zum rassistischen, sexistischen Sprücheklopfer trainierten…


Genau: Der Algorithmus projiziert seine Learnings aus alten Daten in die Zukunft. Er übernimmt die Moral aus dem Lehrmaterial.

Die zweite Risikozone ist der Algorithmus selber - wir bestimmen ja bei der Programmierung durchaus, wie die Software mit Daten umgeht. Ein verantwortungslos programmierter Algorithmus kann Schaden anrichten. 


Die Technik selber ist dabei gar nicht «böse»?


Nein, das ist keine Voraussetzung – eine einseitige Perspektive der Entscheider vor dem Einsatz der Technik reicht aus. Deswegen kritisieren Wissenschaftler wie Kate Crawford, dass die Digitalisierung getrieben wird von jungen, reichen, weissen Männern. Denn diese Gruppe spielt in der Prüfung einer jeden neuen Anwendung die dominante, wenn nicht die einzige Rolle.





Können Sie das mit einem Beispiel verdeutlichen?


In Boston, USA, wurde eine App zur Erkennung von Schlaglöchern in den Strassen lanciert: Sie erkannte Erschütterungen auf regelmässigen Fahrten wie dem Arbeitsweg und meldete die GPS-Position ans Infrastruktur-Amt. Das führte aber nicht dazu, dass die schlimmsten Schlaglöcher repariert wurden, welche die meisten Menschen betrafen, sondern die auf den Arbeitswegen der relativ wohlhabenden Oberschicht. Denn Voraussetzung für die Teilnahme an dem Programm war der Besitz eines Smartphones, eines Autos und eines festen Jobs.


Damit sagen Sie es selber: Moral, also der Gegenstand der Ethik, ist kulturgeprägt. Ethisches Verhalten ist demnach kein globaler, objektiver Standard...


...nein, Ethik ist eine Perspektive auf die Moral einer Gesellschaft. Man kann Vorgänge mit der Brille der Ethik beurteilen, so, wie man sie mit der Ökonomen- oder der Juristen-Brille betrachten kann. Die Moral muss dabei mehr als dem Konsens der Gruppe standhalten.


Es gibt also doch einen übergeordneten Massstab?


Ja: Wenn es im Landesinnern der USA cool ist, Waffen zu tragen, und an den Küsten ist es verpönt, dann untersucht die Ethik zunächst die Frage, wie viele Menschen den herrschenden Zustand für gut befinden. Sie untersucht danach aber auch die normative Qualität der Argumente: Basis einer gesellschaftlichen Debatte ist eine solide argumentative Begründung für den Anspruch, dass es sinnvoll sei, Waffen zu tragen.


Nun hat Europa traditionellerweise eine Risiko-Mentalität im Umgang mit Neuerungen, die USA nähern sich ihnen eher mit einer Chancen-Mentalität. Spielen Nationen eine Rolle?


Das ist recht eindeutig und ist nicht zuletzt in der Geschichte begründet: In einem Land wie Deutschland, das im 20. Jahrhundert mit zwei Diktaturen geschlagen war, zu deren Machtinstrumentarium die Überwachung gehörte: Hier passen die Menschen sehr genau auf, was von wem gespeichert und überwacht wird.


Folgerichtig verglichen Sie in Ihrer Dissertation vor fünf Jahren die grossen Internetfirmen mit Staaten. Entwickeln Unternehmen ihre individuelle Moral?


Die Firmen im Silicon Valley haben alle ein Mission Statement und eigene moralische Werte. Bei Facebook etwa erhält man beim Stellenantritt ein kleines Büchlein, in dem die «Company Values» stehen, inklusive Gründungsmythos, woran man so glaubt und welche Werte man wichtig findet.





Dabei behaupten Unternehmungen ja gerne, sie entschieden gar nicht, sondern reagierten nur auf Nachfrage.


Steve Jobs hat ja oft gesagt, die Kunden wüssten gar nicht, was sie haben wollen, weswegen Apple es ihnen zeigen müsse. Die Wirtschaft schafft Bedürfnisse und kreiert dann die Produkte wie das iPhone dazu. Unternehmen gestalten so aber eben auch unsere Kultur mit.


Im vorsichtigen Europa gibt es dabei aber ein Spannungsfeld zwischen individuellen Interessen in Form des Datenschutzes und dem kollektiven Nutzen der Digitalisierung. Kann es nicht auch unethisch sein, eine nützliche Technologie wegen vereinzelter negativer Auswirkungen nicht anzuwenden?


Genau damit muss sich die Gesellschaft in einem Diskurs auseinandersetzen und in politischen Prozessen festlegen, wo der Technologie welcher Wert für das Individuum und wo ihr ein grösserer Wert für die Gesellschaft zugemessen wird.


…die Wirtschaft muss also warten, bis Ihr die Politik ein demokratisch abgesegnetes Wertesystem vorgibt?


Nein! Das ist genau falsch, weil die Regulierung immer hinterherhinkt. Unternehmen müssen sich im Gegenteil viel stärker ihren Stakeholdern öffnen, am Diskurs teilnehmen und den Einwänden, Kritiken und Bedenken beispielsweise von NGOs die nötige Relevanz zugestehen.


Wenn wir Ihre Forderungen auf die Schweiz anwenden, was sollen die Firmen hier tun, in einer funktionierenden Demokratie? Sollen sie den regulatorischen Entscheiden vorgreifen?


Es gibt drei Ebenen für technologische Entscheide. Die Mikro-Ebene ist der persönliche Entscheid: Installiere ich den Facebook-Messenger oder «Threema» auf meinem Smartphone: Man kann bewusst Kunde werden von der Firma, die Datenschutz nicht nur hochhält, sondern ihn sozusagen zu ihrem Business-Modell macht.

Dann gibt’s die Makro-Ebene: Das ist die Politik. Hier hoffen wir, dass die Politiker die Herausforderungen verstehen und letztlich in Regulierungen Werte vorgeben.


Genau dazwischen liegt die Meso-Ebene, auf der Unternehmen funktionieren: Einerseits beeinflussen sie die Politik, andererseits werden sie von ihr beeinflusst. Das gleiche gilt für die Konsumenten, die Bedürfnisse haben, bei denen die Wirtschaft aber auch Bedürfnisse wecken will.


Diese drei Gruppen müssen zu einem Dialog finden. 





Die Unternehmen sollen Gespräche mit ihren Kunden initiieren?


...ja, und mit anderen Unternehmen! Man kann in der Branche miteinander reden und sich auf einen Kodex einigen, welche Dinge man tut und welche man aus ethischen Gründen kollektiv ausschliesst. Das passiert in jeder Branche.


Aus der Aufklärung und der Industriellen Revolution sind die Menschenrechte hervorgegangen, sozusagen als ethisches Erbe einer Wissens- und einer technischen Revolution. Ist etwas Ähnliches aus der Digitalisierung zu erwarten?


In Online-Spiel-Communities wurde über das Mitbestimmungsrecht der Spieler in der Programmierung schon vor zwanzig Jahren diskutiert: Ich bin durchaus der Meinung, dass uns etwas wie digitale Grundrechte helfen könnten. Die Europäische Datenschutznorm GDPR kommt dem derzeit vielleicht am nächsten, sie deckt aber nicht alle Themenbereiche ab. Es braucht weiterhin einen gesellschaftlichen Dialog über informationelle Selbstbestimmung.


«Wenn man Digitalisierung will, muss man auch alle Nebenwirkungen in Kauf nehmen.»


...bis hin zur Fragestellung, ab wann technische Apparate mit künstlicher Intelligenz ein Bewusstsein und damit Rechte haben müssen?


...In der Tat, auch wenn diese Diskussion derzeit noch sehr unter dem Science-Fiction-Label läuft und eher von Hollywood und reichen, weissen Männern im Silicon Valley als von Wissenschaftlern oder gar Politikern getrieben wird.


Was würden Sie im Zusammenhang mit der Digitalisierung sofort ändern?


Die Art, wie wir über Technologie sprechen. Ich würde Abstand nehmen von Heilsversprechen und eine differenziertere Betrachtung verlangen: Über den Nutzen für alle und das Individuum und über die Risiken.

Derzeit habe ich das Gefühl, dass über Technik nur in absoluten Grössen gesprochen wird: Wenn man Digitalisierung will, muss man auch alle Nebenwirkungen in Kauf nehmen. Wir können Technologie aber auch anders gestalten, wir haben Entwicklungen wie human centered design, participatory design, value-sensitive design. Das sind Prozesse, um vermehrt menschliche und ethische Standards in technische Entwicklungen einfliessen zu lassen.


Wie die Bio- und die Slow-Food Bewegung oder Fair trade?


Genau. Es hat zehn, zwanzig Jahre gedauert, bis diese Bewegungen Mainstream wurden, und in diesen langen Zeiträumen denken wir bei Technik einfach nicht, aber es kann nicht schaden, die Forderungen jetzt zu erheben und einfach mal eine Alternative aufzuzeigen: die digitale Öko-Variante, sozusagen.


Digital Manifest

Als Mitglied von digitalswitzerland ist u.a. auch Swisscom Mitgestalter des "Digital Manifest".





Newsletter

Jetzt Newsletter abonnieren und über Trends, Branchen-News und Benchmarks informiert bleiben.


Zur Anmeldung




Mehr zum Thema