Navigation auf uzh.ch
Künstliche Intelligenz verspricht, viele Bereiche des menschlichen Handelns zu erleichtern: Die Sprachassistentinnen Siri, Cortana und Alexa beruhen auf künstlicher Intelligenz (KI), genauso wie Google Maps oder Einparkassistenten im Auto. Neben den Vorteilen und dem Potential von KI gibt es auch eine Kehrseite der Medaille, die nicht unterschätzt werden darf: Sogenannte tödliche autonome Waffen wie Raketenabschuss-Systeme identifizieren und eliminieren Ziele selbstständig und ermöglichen neue Arten der unmenschlichen Kriegsführung; Social Bots können das Verhalten von Wählerinnen und Wählern manipulieren.
Die künstliche Intelligenz macht die voranschreitende Digitalisierung erst möglich und wird zukünftig unseren Alltag noch viel umfassender prägen. Welche weitreichenden Implikationen das für uns haben wird, ist schwierig zu prognostizieren. Welche Konsequenzen KI aus einer menschenrechtlichen Perspektive mit sich bringen kann, und welche Rolle den Menschenrechten bei der Regulierung von KI zugewiesen werden soll, darüber sprach Philip Alston an der UZH. Alston ist Professor an der New York University School of Law sowie UN-Sonderberichterstatter zu extremer Armut und Menschenrechten. Er hielt seinen Vortrag im Rahmen des UZH Digital Forum. Die interdisziplinäre Konferenz thematisierte die rechtlichen und ethischen Aspekte von autonomen Sicherheitssystemen und wurde von der UZH Digital Society Initiative (DSI) organisiert.
Alston sprach zuerst über tödliche autonome Waffensysteme. Aufgrund seines früheren Mandats als UN-Sonderberichterstatter zu extralegalen Hinrichtungen gilt er auf diesem Gebiet als ausgewiesener Experte. Tödliche autonome Waffensysteme seien aus menschenrechtlicher Perspektive deutlich zu verurteilen, ihr Einsatz sei ein Verstoss gegen die Menschwürde und gegen das Recht auf ein faires Gerichtsverfahren. Ausserdem seien viele Fragen offen, zum Beispiel wer bei einem Einsatz die politische und rechtliche Verantwortung trage, und nach welchen Kriterien Ziele überhaupt identifiziert und bekämpft werden dürften, sagte Alston. Bereits im Jahr 2010 habe er den Vereinten Nationen empfohlen, sich verstärkt aus rechtlicher Perspektive mit tödlichen autonomen Waffensystemen auseinanderzusetzen.
Alston zeigte ausserdem anhand einiger Beispiele, dass künstliche Intelligenz diskriminierend wirken kann. Selbstlernende Algorithmen teilen Menschen aufgrund von Wahrscheinlichkeitsberechnungen und Korrelationen in unterschiedliche Gruppen ein. Die individuelle Situation eines Menschen wird dabei nicht berücksichtigt, stattdessen wird eine Person statistisch einer Gruppe mit ähnlichen Attributen zugeteilt – wie etwa Wohnort oder Einkommen. Es sei zum Beispiel problematisch, wenn amerikanische Richter auf der Grundlage von Wahrscheinlichkeitsberechnungen eines Algorithmus entschieden, ob Angeklagte gegen eine Geldkaution freigelassen würden oder nicht. Laut Alston führt dies dazu, dass bereits marginalisierte Gruppen noch mehr diskriminiert werden.
Alston rundete seinen Vortrag mit einer übergreifenden Frage ab: «Was ist der geeignete normative Rahmen für die künftige Entwicklung und Steuerung der künstlichen Intelligenz und welche Rolle spielen dabei die Menschenrechte?» Er beobachte eine Abwendung von den Menschenrechten hin zu rechtlich unverbindlichen ethischen Richtlinien – was fragwürdig sei. Die Experten, die solch ethische Standards erstellten, seien häufig Vertreter der Tech-Branche. Sie behaupteten, der gesetzliche Rahmen sei zu unflexibel, hingegen passten sich ethische Richtlinien, die durch die KI laufend geschaffen würden, neuen Situationen an.
Doch ethische Prinzipien fussten auf unterschiedlichen philosophischen Theorien, über die man endlos diskutieren könne, erklärte Alston. Er warnte ausdrücklich davor, die Regulierung der KI den Interessenvertretern grosser Tech-Unternehmen wie Google oder Facebook zu überlassen. «Bereits heute wissen diese Unternehmen mehr über uns als etwa unsere Eltern oder unsere Lebenspartner», sagte Alston. Indem die Tech-Unternehmen riesige Mengen privater Daten sammeln und auch kommerziell nutzen, verstossten sie gegen ein wichtiges Menschenrecht – den Schutz der Privatsphäre.
Alston empfahl allen, die wirklich an einer zukunftstauglichen KI interessiert sind, sich an den Menschenrechten zu orientieren. «Die Menschenrechte bieten insbesondere denjenigen, die im Bereich der KI tätig sind, eine sehr hohe Legitimität», betonte Alston. Sie schützten nicht nur die Privatsphäre, sondern auch die Menschenwürde, und sie gewährten Schutz vor Diskriminierung. Darüber hinaus seien Menschenrechte die Grundprinzipien der internationalen Rechtsordnung, ihre Verletzung könne in fast allen Ländern eingeklagt werden.