Die Auseinandersetzung zwischen dem Pentagon und dem KI-Unternehmen Anthropic lässt sich hervorragend durch die Brille der kantischen Maschinenethik und des „Kantian Filters“ analysieren.
Wenn man das Verhalten des Pentagons anhand dieser Maßstäbe prüft, zeigt sich ein fundamentaler ethischer Konflikt zwischen staatlichem Machtanspruch und kantischer Pflichtenethik.
Die Bewertung des Verhaltens des Pentagons unter Berücksichtigung der kantischen Maschinenethik:
▪️ Verletzung der Nicht-Delegierbarkeit von Verantwortung (Autonome Waffensysteme) Nach kantischer Maschinenethik kann eine KI niemals ein moralischer Akteur sein, da ihr der autonome, rationale Wille fehlt. Daraus folgt die absolute Nicht-Delegierbarkeit moralischer Verantwortung: Entwickler und Betreiber tragen die irreduzible Letztverantwortung für die Systeme, die sie erschaffen.
- Das Verhalten des Pentagons: Das Pentagon störte sich massiv an Anthropics vertraglicher roter Linie, das KI-Modell "Claude" nicht für vollautonome Waffensysteme einzusetzen. Die Regierung versuchte, diese Klausel durch vage juristische Formulierungen wie „soweit angemessen“ aufzuweichen.
- Kantische Bewertung: Das Pentagon missachtet hier die kantische Pflicht der Entwicklerin (Anthropic), vorausschauend Verantwortung zu übernehmen. Aus kantischer Sicht ist es moralisch unzulässig, Entscheidungen über Leben und Tod an einen Algorithmus zu delegieren. Anthropic handelt hier exakt nach der kantischen Maschinenethik, indem das Unternehmen die Verantwortung für sein Produkt übernimmt und letale Automatisierung ausschließt. Das Pentagon hingegen fordert einen blinden, „gehorsamen Soldaten“, was die zwingende menschliche moralische Letztinstanz gefährdet.
▪️ Verletzung der Menschenwürde (Inlands-Massenüberwachung) Kants Selbstzweckformel (als Teil des Kategorischen Imperativs) besagt, dass der Mensch niemals als bloßes Mittel zum Zweck gebraucht werden darf.
- Das Verhalten des Pentagons: Ein weiterer Hauptkonfliktpunkt war Anthropics Weigerung, Claude für inländische Massenüberwachung zur Verfügung zu stellen (z.B. für die Verarbeitung riesiger Datenmengen aus sozialen Netzwerken, biometrischen Daten oder verdeckten Ermittlungen).
- Kantische Bewertung: Massenüberwachung behandelt den Menschen als bloßes Datenobjekt und als Mittel zur staatlichen Kontrolle oder Informationsgewinnung. Die informationelle Autonomie und die Würde des Individuums werden dabei untergraben. Das Beharren des Pentagons auf diesen Überwachungsmöglichkeiten widerspricht somit eklatant dem Würde-Schutz des „Kantian Filters“. Anthropic verteidigt hier die kantische Position, wonach technologische Systeme die menschliche Autonomie nicht durch Totalüberwachung aushebeln dürfen.
▪️ Ignoranz gegenüber der ethischen Besonderheit von KI („Normal Technology“)
- Das Verhalten des Pentagons: Regierungsvertreter argumentierten, KI sei lediglich eine „normale Technologie“, vergleichbar mit einem Kampfjet. Man war der Ansicht, dass ein privates Unternehmen dem Militär keine Vorschriften zu machen habe, wie ein solches Werkzeug eingesetzt wird.
- Kantische Bewertung: Diese utilitaristische und instrumentelle Sichtweise verkennt das Wesen moderner KI. Wie die kantische Maschinenethik betont, handelt es sich bei großen Sprachmodellen um Systeme mit potenziell unvorhersehbarem und unkontrollierbarem Verhalten, die Moralität täuschend echt imitieren können, ohne sie zu besitzen. Anthropic hat seiner KI Claude eine Art „Verfassung“ (Constitution) gegeben, die auf Prinzipien, Tugend und konsensualer Wahrheit basiert. Das Pentagon wollte jedoch eine KI, die keine moralischen Grenzen zieht (wie etwa die Verweigerung eines Loyalitätstests zur Bombardierung des Irans) und bedingungslos Befehle ausführt. Die Forderung des Pentagons nach einer grenzenlosen Verfügbarkeit der KI ignoriert die moralische Pflicht, hochkomplexe Systeme so zu gestalten (Alignment), dass sie universelle menschliche Werte respektieren.
▪️ Zwang und Heteronomie statt Autonomie
- Das Verhalten des Pentagons: Als Anthropic auf seinen ethischen Prinzipien beharrte, reagierte das Pentagon mit massiver Nötigung. Es drohte damit, das Unternehmen als Risiko für die Lieferkette („supply-chain risk“) einzustufen oder es unter dem Defense Production Act faktisch zu verstaatlichen, was die Zerstörung des Unternehmens bedeutet hätte.
- Kantische Bewertung: Kants Ethik basiert auf dem freien Willen und der Autonomie. Das Pentagon nutzte seine staatliche Macht, um Anthropic in die Heteronomie (Fremdbestimmung) zu zwingen. Anstatt den ethisch fundierten (und damit autonomen) Entschluss von Anthropic zu respektieren, versuchte das Pentagon, die moralischen Schranken durch bloße Erpressung einzureißen.
▪️Fazit
Unter dem Blickwinkel der kantischen Maschinenethik ist das Verhalten des Pentagons stark zu verurteilen. Die Regierung handelt rein zweckrational (Fokus auf militärische Dominanz) und fordert die Aufgabe menschlicher Letztverantwortung sowie die potenzielle Instrumentalisierung von Bürgern durch Überwachung. Anthropic hingegen verkörpert in diesem Konflikt die kantische Position: Das Unternehmen versucht, den „Kantian Filter“ (Nicht-Delegierbarkeit von Lebensentscheidungen und Respektierung der Würde/Privatsphäre) in die Praxis umzusetzen, selbst angesichts existenzieller Bedrohungen durch den Staat.
Armin Grünheid.


Kommentare
Kommentar veröffentlichen
Bitte beachte: Mit der Nutzung der Kommentarfunktion stimmst du der Speicherung und Verarbeitung deiner Daten durch diese Website zu. Weitere Informationen findest du in meiner Datenschutzerklärung.