Wen würdest du eher töten, einen alten Mann oder ein junges Mädchen? Ein moralisches Dilemma, dem sich die Probanden der Moral Machine auf den beiden Barcamps zum Thema KI und Big Data konfrontiert sahen.
Über einen Zebrastreifen laufen eine Seniorin und eine kleiner Junge. Ihnen nähert sich in rasender Geschwindigkeit ein Auto, in dem eine Mutter und ihre Tochter sitzen. Die Insassen haben keine Kontrolle über das Vehikel, da es sich um ein autonom fahrendes Auto handelt. Wen soll das Auto nun überfahren? – Diesem moralischen Dilemma sieht sich nun die Proband*innen gegenüber. Denn zum Glück handelt es sich nicht um eine reale Situation, sondern bloß um ein Fallbeispiel der Website Moral Machine. Die Besucher*innen des Barcamps KI – Teams & Talks hatten dort unter anderem die Möglichkeit, ihr moralisches Verständnis zu testen und mit anderen zu vergleichen.
Aber treten wir einen Schritt zurück und klären erst einmal die Frage, wie genau Moral definiert wird, wie die Moral Machine funktioniert und warum sie im Zeitalter von smarten Computern und Digitalisierung immer noch große Diskussionen entfachen kann.
Hintergrundwissen: Die Geschicht von der Moral
Die Moral ist laut Duden die “Gesamtheit von ethisch-sittlichen Normen, Grundsätzen, Werten, die das zwischenmenschliche Verhalten einer Gesellschaft regulieren, die von ihr als verbindlich akzeptiert werden”. Dabei hängen akzeptierte Normen stets von den kulturellen und ethnischen Vorstellungen der jeweiligen Gesellschaft ab. Dies muss man stets im Hinterkopf behalten, wenn man sich mit moralischen Handlungen beschäftigt.
Die Website der Moral Machine ist als Experiment konzipiert. Sie entstand als ein Gemeinschaftsprojekt der Scalable Cooperation, dem MIT Media Lab und dem Massachusetts Institute of Technology. Der User muss in 13 Fallbeispielen entscheiden, ob ein selbstfahrendes Auto, das die Kontrolle verloren hat, geradeaus fahren oder die Spur wechseln soll. Egal, wie man sich entscheidet, es sterben bei jedem Manöver Passanten. Der User entscheidet sich bewusst oder unterbewusst und bekommt am Ende des Experiments eine Auswertung seiner Züge und den Vergleich mit anderen Usern.
Dieses Gedankenkonstrukt, auf dem die Moral Machine basiert, ist keineswegs neu. Es handelt sich dabei um das sogenannte Trolley-Problem, ein 1930 entstandenes Gedankenexperiment, in welchem ein Zug das selbstfahrende Auto ersetzt und der Befragte eine Weiche stellen muss. Auch hier sterben Menschen auf beiden Gleisen.
Die Proband*in muss in beiden Experimenten abwägen, welches Leben ihm mehr wert zu sein scheint: Würde ich eher eine alte Frau als einen kleinen Jungen töten? Überfahre ich eher zwei Obdachlose und eine Katze statt einer männlichen Führungskraft? Sind mir Frauenleben wichtiger als die der Männer?
Es geht um grundsätzliche Fragen, die alle mit der Moralvorstellung eines jeden Menschen zusammenhängen. Der Mensch als soziales Wesen sympathisiert zumeist unterbewusst mit einer Gesellschaftsgruppe mehr als mit einer anderen. Doch genau darin liegt auch das Problem. Die Moral Maschine beschäftigt sich mit der Frage, ob und wie KI dort eine Veränderung bringen kann.
Kann KI einen vorurteilsfreieren Standpunkt einnehmen als der Mensch?
KI und Moral sind untrennbar miteinander verbunden, daher ist es wichtig, ethische Leitlinien festzulegen, bevor KI endgültig mit unserem Alltag verwoben ist. Die Datenethikkommission der Bundesregierung veröffentlichte am 23. Oktober 2019 eine Handlungsempfehlung für den ethischen Umgang mit KI. Die Co-Sprecherin Frau Prof. Dr. Christiane Wendehorst stellte in einem Interview fest: “Die reine Technik kann nicht unethisch handeln. Aber ihre Nutzung kann ethisch oder unethisch sein.”
Die Kommission betrachtete und analysierte verschiedene Use Cases und leitete daraus Handlungsempfehlungen ab:
- Die Aufnahme einer zusätzlichen Zielbestimmung, welche ethische und rechtliche Grundsätze regelt. Dabei soll sich vor allem an Prinzipien der Rechts- und Sozialstaatlichkeit sowie Datenschutzrechten orientiert werden.
- Die Aufnahme eines zusätzlichen Handlungsfeldes, welches die Förderung von individueller und gesellschaftlicher Kompetenz und Reflexionsstärke im Umgang mit KI regelt.
Außerdem heben die Arbeitsergebnisse der Datenethikkommission die rasante Digitalisierung in vielen Bereichen der Gesellschaft im Vergleich zur langen Zeitspanne eines Gesetzgebungsverfahrens als zentrale Herausforderung hervor. “Wir müssen eine Balance finden, nämlich einerseits weit genug in die Zukunft blicken und hinreichend technologieneutral formulieren und andererseits für die heutigen Anforderungen konkret genug denken, damit die Bundesregierung mit unseren Handlungsempfehlungen sinnvoll arbeiten kann.”, weiß Wendehorst.
Diese ethischen Fragen beschäftigten auch die Teilnehmer des KI-TT Barcamps an der TH Köln. An unserem Stand hatten sie die Gelegenheit, über ihre Bedenken und Wünsche zu diskutieren. Dazu machten wir uns bereits im Vorfeld viele Gedanken.
Auf dem Barcamp: Aller Anfang ist schwer
Nach dem Durchspielen der “Moral Machine” innerhalb unseres Kurses ließen uns vor allem Fragen rund um das Thema Ethik nicht los. Wir stellten schnell fest, dass jeder angelernte Werturteile in sich trägt, von denen man sich nicht komplett lösen kann. Oft hört man in den Nachrichten, dass sich gewisse Personengruppen benachteiligt oder diskriminiert fühlen oder ist selbst davon betroffen, zum Beispiel bei der Wohnungssuche oder der Suche nach einem neuen Job. Könnte KI dann nicht zukünftig als “neutraler Algorithmus” genutzt werden, um unsere Entscheidungsprozesse fairer zu machen? Mit dieser Fragestellung war die Grundlage für unseren Stand auf dem KI-TT Barcamp geschaffen.
Nach viel Brainstorming und verworfenen Plänen stand am Ende ein Konzept fest, das uns allen gefiel. Die Idee: Einen geschlossenen interaktiven Diskussions- und Denkraum zu schaffen – unsere eigene “Moral Machine”. Unter dem Motto “Wie tickst du wirklich?” soll sich jede/r TeilnehmerIn durch das Spielen der Moral Machine zuerst seinen eigenen Wertvorstellungen und Vorurteilen gegenüber bestimmter Personengruppen bewusst werden. Im Anschluss findet eine geleitete Diskussionsrunde statt, bei der die Teilnehmer*innen Denkanstöße und Fragen zum Thema Moral und künstlicher Intelligenz gestellt bekommen. Ziel soll es sein, die Besucher*innen für die angesprochenen Themen zu sensibilisieren und schließlich den Meinungsbildungsprozess anzukurbeln.
Wir stehen in den Startlöchern
18. November 2019 – Es ist soweit, die ersten neugierigen Gesichter betreten Raum 248, in dem das zweite KI – Talks & Teams Barcamp heute stattfindet. Die Laptops stehen in Reih und Glied, ein großer Stehtisch ist aufgebaut, auf dem Stifte, Smileys an Schaschlik-Spießen und Metaplankarten bereitliegen. Das alles versteckt sich hinter Wänden, die mit Zitaten bekannter Persönlichkeiten wie “KI kann unser Freund sein” von Bill Gates oder “Unsere Intelligenz macht uns menschlich und KI ist eine Ergänzung dessen” behangen worden sind. In der Mitte des Standes hängt ein großes Plakat, auf dem steht: “Moral Machine – Wie tickst du wirklich?”. In den Gesichtern der Barcamp-Teilnehmer*innen steht förmlich geschrieben: Was hat das alles wohl auf sich?
Nach den Impuls-Vorträgen der KI-Expert*innen gibt’s dann die Möglichkeit, die einzelnen Stände zu erkunden. Unter anderem einen Stand zum Thema Smart Farming oder einen Film zum Thema Cookies im Netz. Die ersten, anfangs noch zurückhaltenden Teilnehmer*innen, treten ein in die Welt der “Moral Machine”. Nun stellt sich ihnen die Frage: Wen soll das selbstfahrende Auto töten? Die Katze, die Oma oder den Arzt?
Im Anschluss geht es an den Diskussionstisch: Hier wird sich ausgetauscht über die Ergebnisse der “Moral Machine”, Vor- und Nachteile beim Einsatz von KI und wie und wo wir ihr im Alltag begegnen. Die Gedanken werden fleißig auf die Metaplankarten geschrieben. Wer auf eine Fragen einmal keine Antwort weiß, der darf die Smiley-Karten nutzen, um seine Einstellung deutlich zu machen.
Alexa, ein Staubsaug-Roboter und der selbstfahrende Bus
Nach einer Stunde, vielen neuen Erkenntnissen, Diskussionen und Einblicken in die Welt der KI schließt die Moral Machine. An den Wänden findet man nicht mehr nur die Zitate, sondern nun auch viele bunte Zettel, beschriftet mit Gedanken und Erfahrungen der Besucher*innen. Das Fazit: Von Alexa und Siri, Staubsaug-Robotern bis hin zum selbstfahrenden Bus hatten die Besucher*nnen bereits eine Menge Berührungspunkte mit verschiedensten Formen künstlicher Intelligenzen. Am schwierigsten fiel es, Fairness zu definieren. Da jede/r verschiedene Wertvorstellungen und Prägungen mitbringt, sieht Fairness vermutlich für jeden ein wenig anders aus. Vor allem das Spielen der Moral Machine half dabei, sich dessen bewusst zu werden. Einige entschieden eher danach, ob sich an Regeln gehalten wurde (zum Beispiel über rote Ampel gehen), andere hingegen ließen eher junge Menschen am Leben, wieder andere bevorzugten Tiere vor Menschen.
“Fair ist, wenn alle einverstanden sind”, sagte eine Besucherin, woraufhin alle zustimmten. Jedoch sei dies bei den vielen Individuen in einer Gesellschaft fast unmöglich zu erreichen. Wegen persönlicher Merkmale fühlten sich einige nämlich in wichtigen Entscheidungsprozessen benachteiligt, auch wenn die Entscheidung für den Großteil als fair angesehen wird. “Seitdem ich über 60 bin habe ich große Probleme, einen Kredit aufzunehmen”, erzählte eine Besucherin. Ob eine KI diesen Menschen in solchen Fällen helfen könnte, waren sich viele unsicher.
Einig waren sich die BesucherInnen vor allem in einem Punkt: Es gibt bisher zu wenig Regularien für den Einsatz von KI. Momentan sei sie deshalb noch nicht dafür geeignet, über wichtige Dinge zu entscheiden. Rechtliche Schranken sollten demnach vor allem bei ethischen und moralischen Fragen, wie der Bedienung lebenserhaltender Maschinen oder Militärwaffen eingeführt werden. Würde es diese zukünftig geben, sieht ein Großteil der Besucher*innen KI als eine Entlastung für den Menschen. Vor allem im Bereich Pflege und automatisierte Prozesse sehen sie große Chancen, wobei die endgültigen Entscheidungen stets beim Menschen bleiben solle. KI funktioniere für sie mehr als eine Art “Vorfilter”, der dann vom Menschen abgesegnet oder gegebenenfalls überarbeitet wird.
"KI ist unheimlich"
Eine Woche später – Erneut öffnet die “Moral Machine” ihre Pforten, diesmal jedoch mit einer etwas jüngeren Zielgruppe. Im Rahmen einer Projektwoche zum Thema künstlicher Intelligenz besucht eine achte Klasse heute die TH Köln. “Schon wieder?”, dachten wir uns zuerst, “Viel wird bei so einer jungen Zielgruppe bestimmt nicht herum kommen”. Falsch gedacht! Der Tag brachte eine Menge Gesprächsstoff und Überraschungen, denn die Schüler*nnen wussten viel mehr über KI, als wir gedacht hätten.
Überraschenderweise schätzten die SchülerInnen den Einsatz und die Möglichkeiten von KI nämlich weniger cool, sondern eher als kritisch ein. “KIs kann man doch hacken” oder “Durch KI gehen Arbeitsplätze verloren, weil irgendwann Roboter alle Aufgaben übernehmen können”, waren einige der Aussagen. Einige Kinder befürchten sogar, dass KI den Menschen immer fauler werden lasse, da alles automatisch abläuft und man kaum noch das Haus verlassen muss. “Ich finde künstliche Intelligenz unheimlich”, berichtete schließlich eine Schülerin. Sie habe Angst davor, dass sie irgendwann intelligenter sein wird als der Mensch. In der Pflege und bei der Unterstützung beeinträchtigter Menschen fanden die Kinder KI jedoch hilfreich. “KIs sind auf jeden Fall unparteiisch”, argumentierte ein Schüler.
Am Ende des Schüler-Barcamps konnte man dann wieder eine Menge bunter Zettel, beschriftet mit Begriffen wie “Alexa” und “Siri”, aber auch “Amazon Empfehlungen”, “Instagram Feed” oder “Fortnite Bots”, an den Wänden unseres Stands sehen.
Vieles anders als erwartet
Nach den zwei Barcamps ziehen wir das Resumé: Vieles lief anders als erwartet. Anfangs gingen wir davon aus, dass ein Großteil der Besucher*innen noch kein fundiertes Wissen über Funktionen und Einsatz von KIs aufgebaut und deshalb noch keine ausgeprägte Meinung zu dem Thema hat. In den Barcamps zeigte sich jedoch, dass fast jede/r etwas zu den Themen sagen konnte und Lust hatte, sich mit Anderen über eigene Gedanken und Erfahrungen auszutauschen. Auch wenn die Reaktionen zunächst zögerlich waren, wollten schließlich doch alle wissen, was hinter der “Moral Machine” steckt und “wie man wirklich tickt”. So hatten wir stets einen großen Andrang, lebhafte Diskussionen und oft sogar Probleme, die gerade entfachte Debatte zu bremsen, um weiteren Interessent*innen Eintritt in die “Moral Machine” zu gewähren.
Besonders spannend war es, den Vergleich zwischen den Ergebnissen der beiden Barcamps zu ziehen. Entgegen unserer Erwartungen war die jüngere Altersgruppe tendenziell kritischer gegenüber KI eingestellt, wohingegen die Erwachsenen eher offen für die zukünftigen Entwicklungen im Bereich künstlicher Intelligenz sind. Auch wir als „Experten“ konnten so noch eine Menge dazu lernen und hatten viel Spaß daran, die zwei Projekttage mit unserem Stand begleiten zu dürfen. Wir sind gespannt auf die zukünftigen Entwicklungen in diesem Arbeitsfeld, über das wir euch in einem zweiten Blogpost einen kleinen Einblick geben möchten.
Quellen:
Ethische Leitlinien in der KI – Bundesdruckerei (Abruf: 16.12.2019)
Autoren: Lukas Gehlken, Marie Koytek, Melissa Vogel
Quellen: Ethische Leitlinien in der KI – Bundesdruckerei (Abruf: 16.12.2019)