A konkrét ügyön is túlmutató per indulhat a Fehér Ház ellen. Dario Amodei, az Anthropic alapítója élesben teszteli, begyűri-e Trump Amerikája az elveit.
Az OpenAI-konkurens AI-cég, az Anthropic hétfőn pert indított a Trump-adminisztráció ellen, miután a védelmi minisztérium néhány nappal korábban hivatalosan is „ellátásilánc-kockázatnak” (supply chain risk) minősítette a vállalatot, ezzel gyakorlatilag kizárva őket a legtöbb állami megbízásból. Ahogy az Irán elleni csapások indításakor írtuk, Trump valójában két háborút is elindított, az egyiket a Teherán ellen, a másikat odahaza.
A Pentagon ugyanis korlátlan hozzáférést akart kapni az Anthropic mesterségesintelligencia-eszközeihez katonai felhasználás céljából. Az Anthropic azonban elzárkózott ettől, mondván, nem akarja, hogy modelljeit tömeges belföldi megfigyelésre vagy teljesen autonóm fegyverrendszerekben használják, mert az ellenkezne a vállalat alapelveivel. A cégre ezután sújtott le Trump haragja, a védelmi tárca pedig a kockázati minősítéssel elvágta őket az állami szerződésektől. Ebből pedig akadt bőven, sőt, az Irán ellen indított precíziós csapásokhoz használták az Anthropic rendszereit is.
Dario Amodei alapító-CEO a cég alapértékeivel magyarázta, miért nem engedett a politikai nyomásnak. Ezzel a tech vezetők közül egyedüliként állt ellent a Trump vezette Fehér Háznak, ami mögé a Szilícium-völgy addig inkább a demokratákkal szimpatizáló vezetői gyakorlatilag azonnal besoroltak az elnök újraválasztását követően.
Még Trump sem hozhat ilyen helyzetbe cégeket?
A kaliforniai szövetségi bíróságon benyújtott kereset szerint a kormány intézkedése „példa nélküli és jogellenes”, és valójában a vállalat „véleménynyilvánításhoz való védendő jogának” megbüntetését jelenti. Az Anthropic azt kéri a bíróságtól, hogy függessze fel a minősítést, amelyet a cég a Trump-kormányzat „jogellenes megtorló kampányának” nevez.
A perben a vállalat több nyilvános politikai megnyilvánulásra is hivatkozik, köztük egy Truth Social-bejegyzésre Donald Trump amerikai elnöktől, valamint egy X-posztra Pete Hegseth védelmi minisztertől. Az Anthropic szerint ezek után más kormányzati szervek is követték a példát: többek között a pénzügyminisztérium és a lakásfinanszírozási hatóság is leállította a vállalat Claude nevű AI-rendszerének használatát.
A cég azzal érvel, hogy a „supply chain risk” minősítés azonnali és jelentős bevételkiesést okozhat, ha elveszíti a jelenlegi és jövőbeni szövetségi szerződéseit. A kereset szerint több kormányzati beszállító máris aggályokat fogalmazott meg, felfüggesztette az együttműködést, vagy a szerződések megszüntetését fontolgatja a kockázati besorolás miatt.
A keresetben alperesként szerepel a védelmi minisztérium, az azt vezető Hegseth, valamint több más kormányzati intézmény és kabinettag is. A Pentagon az amerikai Forbes megkeresésére annyit közölt, hogy folyamatban lévő jogi ügyekről nem nyilatkozik. Az Anthropic szóvivője, Danielle Cohen ugyanakkor azt mondta: a per „szükséges lépés”, miközben a vállalat a konfliktus rendezésének minden lehetséges útját nyitva tartja.
A kereset hangsúlyozza, hogy a kormány a vállalat alapelveihez való ragaszkodás miatt próbálja megbüntetni az Anthropicot.
A céget egykori OpenAI-alkalmazottak alapították, akik a mesterséges intelligencia biztonságával kapcsolatos nézeteltérések miatt hagyták el korábbi munkahelyüket. A dokumentum szerint az Anthropic számára „éles választási helyzetet” teremtettek: hallgasson az AI-biztonságról alkotott álláspontjáról, és kínálja a Claude rendszert a kormány által elvárt feltételekkel – vagy számoljon súlyos következményekkel.
Korábban egyetlen amerikai céget sem büntettek így
A konfliktus hátterében egy 2025 júliusában kötött, mintegy 200 millió dollár értékű szerződés áll a Pentagon és az Anthropic között. A viszony azonban az év elején romlani kezdett, miután a vállalat nem volt hajlandó feloldani bizonyos biztonsági korlátozásokat AI-modelljei használatában. Az Anthropic ragaszkodott ahhoz, hogy technológiáját ne lehessen tömeges belföldi megfigyelésre vagy teljesen autonóm fegyverrendszerek működtetésére használni.
Pentagon-tisztviselők vitatják, hogy a hadsereg ilyen célokra kívánta volna használni a technológiát. Hegseth február 27-én jelentette be, hogy az Anthropicot „ellátási lánc kockázatként” fogják kezelni, a döntés a múlt héten lépett hivatalosan hatályba.
Az amerikai jog szerint „supply chain risk” minősítést olyan rendszerek kaphatnak, amelyek esetében fennáll a veszélye annak, hogy ellenséges szereplők szabotázst hajtanak végre, rosszindulatú funkciókat építenek be, vagy más módon manipulálják az adott technológiát. Az ilyen besorolás gyakorlatilag megtiltja a kormányzati szerveknek és beszállítóknak, hogy az adott technológiát – jelen esetben az Anthropic Claude chatbotját – állami projektekben használják.
Az Anthropic szerint ez a döntés példátlan: állításuk szerint korábban egyetlen amerikai vállalatot sem minősítettek ilyen kockázatnak. A cég hangsúlyozza, hogy korábban a kormányzat rendszeresen megadta azokat a biztonsági engedélyeket, amelyek lehetővé tették az Anthropic alkalmazottainak a titkos projektekben való munkát.
A vállalat azt is állítja, hogy semmilyen kapcsolatban nem áll az Egyesült Államok által ellenségesnek minősített országokkal – köztük Kínával, Oroszországgal, Iránnal, Észak-Koreával, Kubával vagy Venezuelával –, és jelentős erőfeszítéseket tett annak érdekében, hogy technológiáját ne használhassák fel például kínai állami kiberműveletekben.
A per jelentősége bőven túlmutat azon, hogy az Anthropicról végül lekerül-e az ellehetetlenítését célzó bélyeg. Tágabb kontextusban az ügy kimenetele alapvetően határozhatja meg, hogy a politikai milyen mértékben telepedhet rá a magánszektorra és mekkora lehet a jövőben a zsarolási potenciálja.