Navigation auf uzh.ch
Markus Christen: Es gibt unzählige unterschiedliche Prognosen. Alle sind sich einig, dass KI unser Leben verändern wird. Was dies bedeutet, ist viel weniger klar. Man muss sich bewusst sein, dass unter dem Begriff Künstliche Intelligenz ganz unterschiedliche Technologien und Anwendungen fallen – von der industriellen Fertigung bis zu Chatbots. So gesehen ist der Begriff sehr unscharf. In der TA-Swiss-Studie (siehe Seite 45) haben wir uns vor allem mit der automatisierten Entscheidung mit Hilfe von KI-Systemen beschäftigt. Solche Systeme werden etwa zur Bearbeitung von Kreditgesuchen, zur Auswahl von Stellenbewerbungen oder in autonomen Fahrzeugen verwendet. Die Frage ist nun, was es für unser Leben bedeutet, wenn KI uns Entscheidungen abnimmt oder uns unterstützt.
Christen: Der Trend zum datenbasierten Entscheiden ist sehr verbreitet. Dahinter verbirgt sich das Ideal des rationalen, objektiven und fairen Urteilens, im Gegensatz zu den zuweilen irrationalen und vorurteilsbehafteten Entscheiden, zu denen wir Menschen neigen. Ob allerdings rein rationale Entscheide auch menschengerecht sind, ist fraglich. Wenn zum Beispiel künftig nur noch eine KI nach rationalen Kriterien über eine Kreditvergabe bestimmen sollte, verarmt damit auch die Entscheidungsvielfalt. Das könnte ein Problem sein. Menschen treffen zwar immer wieder falsche Entscheide, aber für das Gesamtsystem muss das nicht unbedingt schlecht sein. Wir kennen das aus der Wissenschaft: Manchmal führen auch falsche Wege unerwartet zum Ziel.
Christen: Die Angst davor, dass wir die Kontrolle verlieren und künftig nur noch Maschinen anstatt Menschen entscheiden, halte ich für übertrieben. Denn die KI-Systeme bauen schliesslich wir, das sind unsere Design-Entscheide. Die Systeme können das nicht selbst tun, dazu fehlt ihnen das Bewusstsein. Sie haben auch keine Wünsche, ganz im Gegensatz zu uns. Wir setzen KI unseren Wünschen gemäss ein, weil sie bestimmte Aufgaben besser lösen kann als wir. Last, but not least wird KI selbst im autonomsten Fall immer wieder überprüft werden müssen. Es muss laufend getestet werden, ob das System noch das macht, was es soll. Dafür wird auch in Zukunft ein Mensch zuständig sein. Ein Banker, der sich bei einem Entscheid über eine Hypothek auf die Empfehlungen einer KI stützt, muss schliesslich wissen, wann er dem System trauen kann und wann nicht.
Christen: Transparenz ist im Zusammenhang mit KI ganz zentral. Deshalb ist Forschung im Bereich Explainable AI, die Künstliche Intelligenz erklären will, unerlässlich. Es gibt übrigens Anwendungsbereiche für KI, in denen eine Begründungspflicht bestehen sollte. Der Staat beispielsweise, der seinen Bürgern Regeln und Pflichten auferlegen kann, muss in solchen Fällen des hoheitlichen Handelns gute Gründe dafür haben, weshalb und wie er KI einsetzt.
Christen: Lassen Sie mich dazu ein Beispiel machen: 2016 machte der Compas-Algorithmus der US-Firma Northpointe Schlagzeilen. Das KI-System liefert US-Richterinnen und -Richtern, die über die frühzeitige Haftentlassung von Straftätern befinden müssen, Einschätzungen zur Rückfallgefahr. Eine Organisation für investigativen Journalismus mit dem Namen ProPublica untersuchte die Arbeitsweise des Systems und kam zum Schluss, es mache rassistische Prognosen. Tatsächlich attestierte Compas Afroamerikanern eine fast doppelt so hohe Rückfallquote wie Weissen – und dies, obwohl die Hautfarbe als Kriterium im Programm explizit ausgeschlossen war. ProPublica vermutete nun, dass die Entwickler beim Schreiben des Algorithmus zu wenig sorgfältig oder sogar implizit rassistisch waren.
Christen: Nein, nach den Enthüllungen von ProPublica konnten Forscherinnen und Forscher zeigen, dass das Problem Teil des Systems selbst ist. Fairnessprobleme in KI-Systemen lassen sich aus mathematischen Gründen kaum vermeiden. Denn unterschiedliche Fairnesskriterien – und diese gilt es beim Programmieren eines Algorithmus zu definieren – können sich zuweilen gegenseitig ausschliessen. Entsprechend lassen sich diskriminierende Verzerrungen auch mit KI-basierten Entscheidungssystemen nicht völlig aus dem Weg räumen, weil das Ausmerzen einer Form von Unfairness automatisch andere Formen von Unfairness zur Folge hat.
Christen: Genau. Die Frage, was fair ist, ist uralt. Mit ihr hat sich bereits Aristoteles auseinandergesetzt. Bereits der antike Philosoph hielt fest, dass es unterschiedliche Arten von Gerechtigkeit gibt. Wir müssen nun feststellen, dass uns KI nicht von diesen Problemen befreit. Wir können der Frage, welche Art von Fairness relevant ist, nicht aus dem Weg gehen. Mit einem neuen Forschungsprojekt, das unser Team gemeinsam mit Kollegen anderer Hochschulen lanciert hat, möchten wir nun Software-Spezialisten für Fairnessfragen sensibilisieren. Ziel ist es, Instrumente zu entwickeln, mit denen die Entwickler spielerisch erfahren können, dass es beim Bauen von intelligenten Algorithmen eben nicht allein um Informatikfragen, sondern eben auch um Fairness geht.
Christen: Solche Systeme können uns vielleicht auf eigene Vorurteile und systematische Fehler aufmerksam machen. KI kann uns keine Entscheidungen abnehmen, aber als eine Art Zweitmeinung Empfehlungen machen. Ganz grundsätzlich glaube ich, dass KI das Potenzial hat, uns klüger zu machen. Weil sie eben ganz anders funktioniert als wir und riesige Datenmengen poolen und verarbeiten kann, die wir nicht kennen, gibt sie uns die Möglichkeit, uns in ihr zu spiegeln. Das ist positiv, gerade auch wenn es um schwierige Entscheidungen geht. Zentral ist: Es muss immer ein Zusammenspiel von Mensch und Maschine sein. Maschinen, die autonom entscheiden, sind nicht erstrebenswert.
Christen: Transparenz und klare Regeln sind zentral für einen positiven Umgang mit Künstlicher Intelligenz. Gut eingesetzt könnte KI künftig eine wertvolle Begleiterin unseres Denkens werden, die uns wie eine gute Freundin auf Dinge hinweist, auf die wir selber nicht kommen. Wir könnten zusammen schlauer werden.