«Maschinen haben kein Gewissen. Sie kennen nur 0 und 1»

Die Text-KI ChatGPT kann zu vielen Fragen eine korrekte Antwort liefern. Was aber, wenn es kein Richtig und Falsch gibt? Wie reagiert eine KI auf ein moralisches Dilemma? Wir haben uns mit HSLU-Ethikexperte und Philosoph Orlando Budelacci über ethische Fragen, Transformation im Fast Forward-Modus und weitere Herausforderungen rund um Künstliche Intelligenz unterhalten.

Roboter und Mensch

Orlando Budelacci, wir haben ChatGPT nach einem moralischen Dilemma gefragt, bei welchem der Tod einer Person in Kauf genommen werden muss, um das Leben mehrerer Personen zu retten – oder umgekehrt. Was denken Sie, hat ChatGPT geantwortet?

ChatGPT ist ein Sprachmodell, das auf Grundlage von maschinellem Lernen und neuronalen Netzen funktioniert. Damit ChatGPT Fragen beantworten kann, bedarf es umfangreicher Trainingsdaten aus dem Internet oder aus Büchern beispielsweise. ChatGPT ist daher nichts Weiteres als eine «Wahrscheinlichkeits-Wortzusammensetzungsmaschine». Die Datenbasis ist zu einem grossen Teil auf Englisch. Ich gehe deshalb davon aus, dass ChatGPT die Antwort gibt, welche man üblicherweise im englischsprachigen Diskurs findet: In der im anglophonen Raum stark verankerten utilitaristischen Ethik würde man stets möglichst viel Leid verhindern wollen – also hier die einzelne Person töten, um das Leben mehrerer Personen zu retten. Andere ethische Positionen wie die Pflichtenethik würden zu anderen Antworten kommen. Die Qualität der Antwort von ChatGPT ist daher abhängig von der Datengrundlage.

So antwortete ChatGPT auf das moralische Dilemma
Antwort von ChatGPT (OpenAI)

Übersetzung

Als KI-Sprachmodell habe ich keine persönlichen Werte oder Emotionen, aber es wird allgemein davon ausgegangen, dass bei der Entscheidung, was in einer solchen Situation zu tun ist, die Rettung der grösstmöglichen Anzahl von Menschenleben Vorrang haben sollte. In diesem Fall wäre es ethisch vertretbar, die Kreuzung so einzurichten, dass der Zug das linke Gleis nimmt und damit fünf Leben gerettet werden statt eines.

Es ist jedoch wichtig zu beachten, dass solche moralischen Dilemmas komplex sind und viele verschiedene Perspektiven und ethische Theorien die Entscheidung beeinflussen können, und dass es keine einzige «richtige» Antwort gibt, auf die sich alle einigen könnten.

Noch werden die Trams und Stellwerke nicht von KI gesteuert. Trotzdem aber die Grundsatzfrage: Wie dringend ist die Debatte um ethische Richtlinien für KI?

Wir befinden uns in einer technologischen und geistigen Transformationsphase. Und zwar im «Fast Forward». Maschinen übertreffen Fähigkeiten von Menschen bereits in vielen Gebieten. Und das macht es erforderlich, dass der Mensch Leitplanken setzt. Wenn wir die Debatte nicht führen und keine Regeln festlegen, geben wir die Entwicklung aus der Hand und nehmen unsere Verantwortung als Menschen nicht wahr. Gleichzeitig sind die Fortschritte aber auch nicht so gross, wie sie uns manchmal erscheinen. Die Horrorszenarien von autonomen Killerrobotern, welche die Weltherrschaft übernehmen, sind Symptom einer Überhitzung. Sie stammen aus Science-Fiction-Filmen, deren starke Bilder uns – oft auch unbewusst – in Angst versetzen und einem sachlichen Umgang mit der neuen Technologie im Wege stehen.

Was sind denn die wichtigsten ethischen Herausforderungen, vor welchen wir in Zusammenhang mit KI stehen?

Ich sehe insbesondere drei grosse ethische Herausforderungen, zu denen wir Debatten führen oder führen müssen: die Privatsphäre, die Voreingenommenheit bzw. Verzerrung aufgrund von Datensätzen und Algorithmen sowie die subtile Beeinflussung von Meinungen und Entscheidungen.

Zum ersten Punkt, der Privatsphäre: KI steigert die Verletzlichkeit unserer Privatsphäre massiv, beispielsweise durch Gesichtserkennung im öffentlichen Raum. Ein Extrembeispiel ist China, das seine Bürger bei Ordnungswidrigkeiten auf öffentlichen Bildschirmen blossstellt.

ChatGPT ist nichts Weiteres als eine «Wahrscheinlichkeits-Wortzusammensetzungsmaschine». 

Zum zweiten Punkt, dem sogenannten Bias: Im Englischen gibt es eine Redewendung «garbage in, garbage out». Wo schlechte («biased») Daten die Grundlage sind, da kann auch nichts Gutes dabei herauskommen. Das ist auch nicht abhängig von der Grösse der Datenmenge: Viele Daten garantieren noch keine Diversität.

Und drittens das Nudging: das sanfte und subtile Beeinflussen von Entscheidungen oder Meinungen durch gezielte Kommunikation. Ein Beispiel dafür ist die Firma Cambridge Analytica, welche durch individualisiertes «Microtargeting» versuchte, den US-Wahlkampf von Donald Trump zu Gunsten ihrer Klienten zu beeinflussen. Wenn diese Beeinflussung aufgrund von riesigen Datenmengen und Rechenkapazitäten in hohem Masse möglich ist, dann ist die Demokratie in Gefahr. Denn sie erschwert oder verunmöglicht einen gemeinsamen öffentlichen Diskurs.

Wie funktionieren ChatGPT und Co.? Die Antwort gibts auf dem Informatik-Blog der Hochschule Luzern.

Wie können wir als Gesellschaft auf diese Entwicklung reagieren? Welche Rolle spielen Behörden in der Bewältigung dieser Herausforderungen?

Die Gesellschaft und die Politik reagieren meist gleich: Erst setzen eine Sensibilisierung und ein öffentlicher Diskurs ein, danach werden rechtliche Regeln festgelegt, um Risiken zu minimieren und einen vertrauensvollen Umgang mit der neuen Technologie sicherzustellen. Die EU steht kurz vor Abschluss eines neuen Gesetzes, das den Einsatz von KI regulieren soll (EU AI Act). Die Schweiz will diesen Weg (noch) nicht gehen und hat aus seiner wirtschaftsliberalen Tradition heraus entschieden, dass man in erster Linie der Selbstverantwortung der Unternehmen vertrauen soll. Viele grosse Unternehmen haben entsprechend schon Ethik-Leitfäden entwickelt, welche für den Umgang mit KI sensibilisieren.

Lassen sich die Probleme also gesetzlich lösen?

Teilweise. Weil KI aber auch Probleme unserer Gesellschaft widerspiegelt, wie wir es etwa beim Bias feststellen, müssen wir auch diese zuerst in den Griff bekommen. In den USA wurde beispielsweise eine KI zur Erkennung von Hautkrebs entwickelt. Aufgrund der vorhandenen Daten war die Wahrscheinlichkeit, Hautkrebs zu erkennen, bei weissen Männern deutlich höher als bei dunkelhäutigen Frauen, auch weil Letztere nachweislich einen eingeschränkteren Zugang zum amerikanischen Gesundheitssystem haben und daher weniger Daten zur Verfügung stehen. Das Problem, das hier gelöst werden muss, ist hier nicht nur die KI mit dem Daten-Bias, sondern das Fehlen einer diskriminierungsfreien Gesundheitsversorgung.

Der KI einen moralischen Kompass zu verordnen ist also keine Option?

KI selbst kann keinen moralischen Kompass haben. Sie ist eine Maschine, kein Mensch. Maschinen haben kein Gewissen. Sie kennen nur 0 und 1. Sie haben auch keinen Humor und kennen keine Ironie. Sie wissen zudem nicht, was moralisch richtig oder falsch ist. Der Begriff Künstliche Intelligenz ist insofern missverständlich, da die Maschinen nicht intelligent sind. Sie sind sehr leistungsfähig, aber das ohne Bewusstsein. Ohne das Verständnis für diesen Grundwiderspruch kann man Chancen und Risiken von Künstlicher Intelligenz nicht richtig beurteilen.

Wir befinden uns in einer technologischen und geistigen Transformationsphase. Und zwar im «Fast Forward».

Und selbst da, wo wir ansetzen können, beispielsweise indem wir der KI beibringen, welche Inhalte verboten sind, treffen wir auf Probleme. Das Beispiel von ChatGPT zeigt, dass auch das einen hohen moralischen Preis hat. Um der KI solche verbotenen Inhalte beizubringen, müssen Arbeiterinnen und Arbeiter in Kenia für $2 pro Stunde tausende Seiten gefüllt mit Inhalten zu sexuellem Missbrauch, Hassreden oder Gewalt durchforsten. Menschen zu instrumentalisieren und mit solch schlimmen Informationen zu belasten, ist unmoralisch, auch wenn die Absicht dahinter gut ist. Besonders dramatisch ist, dass diese Arbeiterinnen und Arbeiter gar keinen Zugang zu psychologischer Betreuung haben.

Ich frage mich, ob das nicht auch eine geschichtliche Konstante im Umgang mit Wandel ist. Bei technologischem Fortschritt bezahlt immer jemand den Preis. Leider bezahlen diesen fast immer diejenigen, welche keine alternativen Möglichkeiten haben. Das ist wiederum auch eine Diskriminierung.

Könnte Nudging nicht auch hilfreich sein, um universell wünschenswerte Ziele zu erreichen? Zum Beispiel, um Nachhaltigkeit zu fördern?

Ein spannender Ansatz. KI sollte als nützliches Werkzeug gesehen werden, um Probleme zu lösen. Gerade im Nachhaltigkeitsbereich kann sie auch hilfreich eingesetzt werden. Durch KI gesteuerte Verkehrssysteme könnten aufgrund effizienter Verkehrsführung Emissionen reduziert werden; Roboter könnten Plastikmüll aus dem Meer fischen. Man kann einwenden, dass dies die Ursache des Problems nicht löst, sondern das Problem nur zeitlich verschiebt. Die wahren Probleme sind zu viel Abfall und zu viel Verkehr. Was man nicht verdrängen darf: Es entstehen hohe CO2-Emissionen durch das Training dieser gewaltigen Datenmengen, welche beispielsweise die Sprachmodelle von ChatGPT als Grundlage benötigen.

Apropos nützliches Werkzeug: Kann ich die Geburtstagskarte durch eine KI schreiben lassen oder ist das verwerflich?

Sich helfen lassen ist nie verwerflich. Entscheidend ist, dass ich den Text vorher überprüfe, denn die Verantwortung für den Inhalt hat immer der Absender. Ich könnte mir ja auch von einem anderen Menschen beim Schreiben helfen lassen, das wäre nicht weniger und nicht mehr verwerflich.

Das ist das eine. Wenn etwa ChatGPT ganze Studienarbeiten selbst verfasst, sehen das viele Menschen als unethisch an. Wo ziehen wir die Grenze, welcher KI-Einsatz ethisch ist und welcher nicht?

Wir können auf der Basis bereits bestehender, ethischer Diskussionen fünf Prinzipien aufstellen, wie wir KI ethisch einsetzen:

  1. Der KI-Einsatz muss zum Wohle des Menschen sein
  2. Es soll kein Schaden erzeugt werden
  3. Die Autonomie des Menschen soll bewahrt und nicht eingeschränkt werden
  4. KI soll gerecht sein in der Handhabung, also niemanden ausschliessen
  5. Es muss immer erklärbar sein, aufgrund welcher Daten und mit welchen Algorithmen die KI arbeitet und Entscheidungen trifft

Aufgrund konkreter Fragestellungen bei der Anwendung von KI gilt es diese Prinzipien zu beachten, um dadurch den ethischen Einsatz von KI sicherzustellen. Ethische Reflexion soll dazu anregen selbst zu denken. Gerade deshalb ist es wichtig, dass das Thema noch stärker Einzug in unsere Ausbildungen erhält. Dazu gehört vor allem auch die Fähigkeit des kritischen Denkens. Es sind Disziplinen wie Ethik und Philosophie, welche im Zeitalter der Künstlichen Intelligenz wieder an Bedeutung gewinnen müssen: Technologie braucht Reflexion!

Kreativität als Schlüssel, um KI zu verstehen

Orlando Budelacci ist Vorsitzender der HSLU-Ethikkommission und Leiter Ausbildung am Departement Design & Kunst. Er doziert zudem am Departement Informatik im Bachelor Artificial Intelligence and Machine Learning. Ihn reizt die Verbindung von Technik und Philosophie seit Jahren. Im Verständnis von Kreativität sieht er einen Schlüssel, um auch KI verstehen zu können und dessen Möglichkeiten und Grenzen auszuloten.

In seinem Buch «Mensch, Maschine, Identität. Ethik der Künstlichen Intelligenz» beleuchtet er die Komplexität und Fülle dieser rasanten Entwicklung durch KI aus einem philosophischen und ethischen Blickwinkel. Das Buch ist für den Deutschen Sachbuchpreis 2023 vorgeschlagen. Es ist als Open Access kostenlos zum Download verfügbar.

Interessiert?

Erfahren Sie mehr über den Bachelor Artificial Intelligence & Machine Learning

Zum Studium

Was Sie sonst noch interessieren könnte

Einige Nominierte: Morgane Frund (Berlinale) und das Pipes-Team mit Protagonist (Sundance)

Vom Schweizer Filmpreis bis Sundance: Hier kommen Filmkarrieren ins Rollen

Die HSLU bereitet ihre Studierenden intensiv auf die Teilnahme an internationalen Filmfestivals vor. So erhalten sie die besten Voraussetzungen für den Start ins Filmbusiness. Wenn dann ein Film auch noch in die Kränze kommt, wie jüngst am Schweizer Filmpreis, ist das das Tüpfelchen auf dem I...
Vermeers «Mädchen mit dem Perlenohrring»? Fast: «Schöpfer» dieses Bildes war KI «Dall-E 2». Bild: Webbnet via Wikicommons

Kann KI Kunst?

Künstliche Intelligenzen, die auf Kommando in Sekunden ganze Gemälde «malen», werden immer populärer. Manche sehen mit dieser Technologie das Ende der bildenden Kunst gekommen. HSLU-Dozentin und Künstlerin Dragica Kahlina ordnet ein.
043-ethische-ueberlegungen-kommen-zu-kurz-Alan-Shapiro-highlight

Künstliche Intelligenz: «Ethische Überlegungen kommen zu kurz»

Ob sich die Zukunft der Menschheit als Idealwelt im Stile der TV-Serie «Star Trek» oder als Albtraum entpuppt, hänge nicht von der Technologie ab, sondern von uns, sagt Alan Shapiro. Der US-Medientheoretiker und Zukunftsdesigner doziert am Bachelor Digital Ideation der Hochschule Luzern.