Warum KI-Ethik wichtig ist
Warum KI-Ethik wichtig ist
Künstliche Intelligenz verändert unsere Welt in atemberaubendem Tempo. Sie diagnostiziert Krankheiten, steuert Fahrzeuge, entscheidet über Kreditvergaben und beeinflusst, welche Nachrichten du siehst. Doch mit dieser Macht kommen fundamentale Fragen: Wer entscheidet, was die KI tun darf? Nach welchen Werten handelt sie? Und wer trägt die Verantwortung, wenn etwas schiefgeht?
KI-Ethik ist keine Nebensache für Philosophen, sie ist eine der drängendsten Herausforderungen unserer Zeit. In dieser Lektion erfährst du, warum das so ist, welche realen Schäden bereits entstanden sind und warum du als KI-Nutzer davon betroffen bist.
Ethik ist kein Nice-to-have
Manche betrachten Ethik als Bremse für Innovation. Das Gegenteil ist der Fall: Fehlende Ethik ist ein Risiko, für Unternehmen, für die Gesellschaft und für Einzelpersonen. KI-Systeme ohne ethische Leitplanken haben bereits realen Schaden angerichtet. Die folgenden Beispiele zeigen, was passiert, wenn Ethik nachträglich statt von Anfang an berücksichtigt wird.
Historische Beispiele für ethisches Versagen
Die Geschichte der KI ist voller Warnsignale. Drei besonders eindrückliche Fälle:
COMPAS-System (2016)
Das COMPAS-System (Correctional Offender Management Profiling for Alternative Sanctions) wurde in US-Gerichten eingesetzt, um die Rückfallwahrscheinlichkeit von Angeklagten vorherzusagen. Richter nutzten diese Scores für Entscheidungen über Kaution und Strafmass.
Das Problem: Eine Untersuchung von ProPublica zeigte, dass das System schwarze Angeklagte systematisch als gefährlicher einstufte als weisse – selbst bei vergleichbarem Hintergrund. Die Fehlerrate bei Afroamerikanern war fast doppelt so hoch. Trotzdem wurde der Algorithmus jahrelang eingesetzt, ohne dass die Betroffenen das System hinterfragen konnten.
Ethisches Problem: Diskriminierung, fehlende Transparenz, keine Einspruchsmöglichkeit.
Amazon Recruiting-KI (2018)
Amazon entwickelte ein KI-System, das Bewerbungen automatisch bewerten sollte. Das System wurde mit historischen Einstellungsdaten trainiert – und da Amazon in der Vergangenheit überwiegend Männer eingestellt hatte, lernte die KI: Männliche Bewerber bevorzugen.
Die KI stufte Lebensläufe mit dem Wort «women's» (z.B. «women's chess club») systematisch herunter. Amazon stellte das Projekt ein, aber der Fall wurde zum Paradebeispiel dafür, wie historische Vorurteile in KI-Systemen weiterleben.
Ethisches Problem: Geschlechterdiskriminierung durch verzerrte Trainingsdaten.
Microsoft Tay (2016)
Microsoft lancierte den Chatbot «Tay» auf Twitter, der durch Interaktionen mit Nutzern lernen sollte. Innerhalb von 16 Stunden musste er abgeschaltet werden – Trolle hatten ihm rassistische, sexistische und antisemitische Aussagen beigebracht, die er fröhlich weiterverbreitete.
Tay zeigte ein fundamentales Problem: Wenn ein KI-System ungefiltert aus Nutzerverhalten lernt, übernimmt es auch die schlimmsten Aspekte menschlichen Verhaltens. Ohne Sicherheitsmechanismen wird KI zum Verstärker von Hass.
Ethisches Problem: Fehlende Sicherheitsvorkehrungen, kein Alignment mit menschlichen Werten.
Das Trolley-Problem für KI
Stell dir vor: Ein selbstfahrendes Auto erkennt, dass ein Unfall unvermeidlich ist. Es kann nach links ausweichen und einen Fussgänger gefährden, oder geradeaus fahren und die Insassen riskieren. Wie soll die KI entscheiden?
Das klassische «Trolley-Problem» der Philosophie wird durch autonomes Fahren plötzlich real. Und es wird noch komplexer: Soll das Alter der Betroffenen eine Rolle spielen? Ihre Anzahl? Was, wenn ein Kind auf der Strasse steht?
Das Trolley-Problem ist nur die Spitze des Eisbergs. Ähnliche Dilemmata entstehen überall, wo KI Entscheidungen trifft: Soll eine medizinische KI einem jungen oder einem älteren Patienten den Vorzug geben, wenn Ressourcen knapp sind? Soll eine Kredit-KI das Wohnviertel berücksichtigen, auch wenn das zu Diskriminierung führt?
Wer ist verantwortlich, wenn KI Fehler macht?
Wenn ein menschlicher Arzt einen Fehler macht, ist die Haftungsfrage klar. Aber was, wenn eine KI eine falsche Diagnose stellt? Wer haftet?
Die Stakeholder, also die Beteiligten und Verantwortlichen, bilden ein komplexes Geflecht:
- Entwickler und Forscher: Sie designen die Modelle, wählen die Trainingsdaten und definieren die Optimierungsziele. Ihre Entscheidungen in der Entwicklungsphase haben weitreichende ethische Konsequenzen.
- Unternehmen: Sie setzen KI-Systeme ein und tragen Verantwortung für deren Auswirkungen auf Kunden, Mitarbeitende und die Gesellschaft. Profitstreben darf ethische Grundsätze nicht übertrumpfen.
- Gesetzgeber und Regulierer: Sie schaffen den rechtlichen Rahmen, aber die Technologie entwickelt sich schneller als die Gesetze. Die Lücke zwischen technischer Realität und Regulierung ist ein dauerhaftes Problem.
- Gesellschaft und Individuen: Jeder von uns ist betroffen, und jeder hat eine Stimme. Informierte Bürger können Druck auf Unternehmen und Politik ausüben und ethische Standards einfordern.
- KI-Ethik ist keine Nebensache, sie betrifft reale Menschen mit realen Konsequenzen, von Strafurteilen bis Kreditentscheidungen.
- Historische Fälle wie COMPAS, Amazons Recruiting-KI und Tay zeigen: Ohne ethische Leitplanken richtet KI messbaren Schaden an.
- Das Trolley-Problem verdeutlicht, dass es bei vielen ethischen KI-Fragen keine einfachen Antworten gibt, aber die Fragen müssen trotzdem gestellt werden.
- Verantwortung für KI-Ethik liegt bei allen Stakeholdern: Entwicklern, Unternehmen, Gesetzgebern und der Gesellschaft.
- Als KI-Nutzer kannst du einen Beitrag leisten, indem du KI-Systeme kritisch hinterfragst und Transparenz einforderst.