Vor weniger als zehn Jahren lehnten Google-Mitarbeiter den militärischen Einsatz der künstlichen Intelligenz des Unternehmens ab. Heute streitet Anthropic nicht mehr darüber, „ob“ die Technologie eingesetzt werden soll, sondern darüber, „wie“.
Der Konflikt zwischen Anthropic und dem Pentagon hat die Technologiebranche erneut gezwungen, sich mit der Frage auseinanderzusetzen, wie ihre Produkte für Kriegszwecke eingesetzt werden und welche Grenzen sie nicht überschreiten wird. Im Silicon Valley, das unter Donald Trump einen politischen Kurswechsel vollzogen und lukrative Rüstungsaufträge abgeschlossen hat, reagiert die Tech-Branche heute ganz anders als noch vor wenigen Jahren.
Der Streit zwischen Anthropics Unternehmen und der Trump-Regierung eskalierte vor drei Tagen, als Anthropics Klage gegen das Verteidigungsministerium einreichte. Das Unternehmen argumentiert, die Entscheidung, es von Regierungsaufträgen auszuschließen, verletze seine Rechte aus dem Ersten Verfassungszusatz. Anthropics und das Pentagon befinden sich seit Monaten in einem Konflikt, in dem das Unternehmen versucht, den Einsatz seines KI-Modells für Massenüberwachung im Inland oder für tödliche autonome Waffensysteme zu verhindern.
Anthropic argumentiert, dass die Erfüllung der Anforderungen des Verteidigungsministeriums für „jede rechtmäßige Nutzung“ seiner Technologie gegen seine grundlegenden Sicherheitsprinzipien verstoßen und Möglichkeiten für Missbrauch eröffnen würde. Damit wird eine ethische Grenze gesetzt, die andere in der Branche ebenfalls setzen müssen, wenn sie diese überschreiten wollen.
Obwohl die Weigerung von Anthropic, die Sicherheitsvorkehrungen aufzuheben, und die Reaktion des Pentagons frühe Bedenken hinsichtlich des Einsatzes von KI in Konflikten verdeutlicht haben, hat dieser Kampf gezeigt, wie sehr sich die Regeln in Bezug auf die Verbindungen der großen Technologiekonzerne zum Militär verändert haben.
„Wenn die Leute nach einer sinnlosen Unterscheidung zwischen Gut und Böse suchen, bei der gut jemand ist, der den Krieg nicht unterstützt, dann werden sie diese hier nicht finden“, sagte Margaret Mitchell, KI-Forscherin und leitende Ethikwissenschaftlerin bei Hugging Face.
Von antimilitärischen Protesten bis hin zu Militäraufträgen
Mehrere Faktoren haben die Akzeptanz großer Technologiekonzerne für militärische Zwecke beeinflusst. Die Allianz der Trump-Regierung, einschließlich der Loyalitätsbekundungen führender CEOs, hat die Branche mit dem Bestreben der Regierung verknüpft, die militärischen Fähigkeiten auszubauen. Das Versprechen der Regierung, Bundesbehörden mithilfe von KI zu modernisieren, hat KI-Unternehmen zudem die Möglichkeit eröffnet, ihre Produkte in Regierungs- und Militäroperationen zu integrieren und so über Jahre hinweg Einnahmen zu generieren. Im Hintergrund haben die Sorgen um Chinas technologischen Fortschritt und die steigenden internationalen Verteidigungsausgaben die Haltung der Branche verändert.
Doch das war nicht immer so. Im Jahr 2018 protestierten Tausende von Google-Mitarbeitern gegen ein Drohnenbildanalyseprogramm des Verteidigungsministeriums namens Project Maven.
„Wir sind der Ansicht, dass Google sich nicht an Kriegen beteiligen sollte“, erklärten über 3,000 Mitarbeiter in einem offenen Brief. Nach den Protesten verlängerte Google das Projekt Maven nicht und veröffentlichte Richtlinien, die die Entwicklung von Technologien untersagen, die „Menschen direkt schaden“ könnten.
Seitdem hat Google den Aktivismus seiner Mitarbeiter eingeschränkt, Passagen aus seinen Richtlinien von 2018 gestrichen, die die Entwicklung von Waffentechnologien untersagten, und zahlreiche Verträge abgeschlossen, die dem Militär die Nutzung seiner Produkte ermöglichen. 2024 entließ das Unternehmen über 50 Mitarbeiter, die gegen Googles militärische Verbindungen zur israelischen Regierung protestiert hatten. CEO Sundar Pichai erklärte in einem internen Schreiben, Google sei ein Unternehmen und kein Ort für politische Debatten.
Kürzlich kündigte Google an, seine KI Gemini dem Militär anzubieten und damit eine Plattform für KI-Agenten in nicht klassifizierten Projekten zu schaffen.
Anpassung der KI-Industrie an das Militär
OpenAI unterlag bis 2024 einem generellen Verbot der militärischen Nutzung, doch der Chief Product Officer des Unternehmens dient mittlerweile als Oberst im Innovationskorps der US-Armee. Das Startup unterzeichnete letztes Jahr zusammen mit Google, Anthropic und xAI einen Vertrag mit dem US-Verteidigungsministerium über bis zu 200 Millionen US-Dollar zur Integration der Technologie in militärische Systeme. Am selben Tag, an dem Verteidigungsminister Pete Hegseth Anthropic als Risiko für die Lieferkette einstufte, sicherte sich OpenAI einen Vertrag zur Nutzung in geheimen Militärsystemen.
Aggressivere Unternehmen wie Anduril und Palantir haben die Partnerschaft mit dem US-Verteidigungsministerium zu einem Eckpfeiler ihrer Geschäftstätigkeit gemacht und versuchen, die Politik des Silicon Valley in ihrem Sinne zu beeinflussen. Palantir arbeitet seit Anfang der 2010er-Jahre mit dem Militärgeheimdienst zusammen, um Sprengstoffstandorte in Afghanistan zu kartieren. Nachdem Google das Projekt Maven 2019 eingestellt hatte, übernahm Palantir das Programm und nutzt nun Anthropic Claude für das vom Militär verwendete, als geheim eingestufte System.
Anthropologische und militärische Ethik
Obwohl Anthropic für seine Auseinandersetzung mit dem Pentagon öffentliches Lob erhalten hat, betonte CEO und Mitbegründer Dario Amodei, dass das Unternehmen und die Regierung im Wesentlichen die gleichen Ziele verfolgen.
„Anthropologie hat weit mehr Gemeinsamkeiten mit dem Kriegsministerium als Unterschiede“, schrieb Amodei.
In einem ausführlichen Essay warnte er vor Gefahren wie der Entwicklung tödlicher Biowaffen und Menschenrechtsverletzungen durch China, argumentierte aber gleichzeitig, dass Unternehmen demokratische Regierungen und Militärs mit fortschrittlicher KI ausstatten sollten, um autokratische Gegner zu bekämpfen.
Er hat angedeutet, dass die größte Sorge nicht darin besteht, dass KI das Töten von Menschen erleichtern wird, sondern dass die Technologie von einigen wenigen Personen mit einem „Finger am Knopf“ kontrolliert werden könnte, die eine autonome Armee von Drohnen befehligen könnten.
Laut der Klage des Unternehmens gegen das US-Verteidigungsministerium wendet Anthropic für das Militär nicht dieselben Beschränkungen an wie für zivile Nutzer. Claude Gov ist durchaus in der Lage, Anfragen zu erfüllen, die für Zivilisten verboten wären, wie beispielsweise die Bearbeitung geheimer Dokumente und die Bedrohungsanalyse. Die US-Regierung nutzt Claude zur Zielauswahl und -analyse bei Luftangriffen gegen den Iran – eine Nutzung, gegen die Anthropic keine Einwände erhoben hat.
Dario Amodei sagte gegenüber CBS News, dass das Unternehmen keinen Einfluss auf die operative Entscheidungsfindung des Militärs habe, aber die amerikanischen Soldaten unterstütze und sich dafür einsetze, ihnen Technologie zur Verfügung zu stellen.
„Wir haben dem Kriegsministerium mitgeteilt, dass wir fast allen Anwendungsfällen zustimmen“, sagte Amodei. „Im Grunde 98 oder 99 Prozent der gewünschten Anwendungen, bis auf zwei Fälle.“ /GazetaExpress/