Společnost Anthropic, přední vývojář AI, se ocitla ve slepé uličce s Pentagonem kvůli omezením uvaleným na armádu ve využívání jejích modelů umělé inteligence. Spor se týká závazku Anthropic k zásadám „bezpečnost především“ a požadavku Pentagonu na neomezený přístup k AI pro „všechny zákonné účely“. Tento konflikt zdůrazňuje rostoucí napětí mezi etickým rozvojem AI a potřebami národní bezpečnosti.
Rychlý vzestup a vojenský zájem Anthropic
Společnost Anthropic se rychle stala jedním z klíčových hráčů v odvětví umělé inteligence. Jeho nejnovější modely, Claude Opus 4.6 a Sonnet 4.6, demonstrují pokročilé schopnosti včetně koordinace týmů autonomních agentů, navigace ve webových aplikacích a zpracování obrovského množství dat. Společnost nedávno získala finanční prostředky ve výši 30 miliard USD při ocenění 380 miliard USD, což naznačuje její rychlý růst.
Zájem Pentagonu o technologii Anthropic zesílil po zprávách, že americké speciální jednotky údajně použily Clauda během náletu ve Venezuele. Operace vedená ve spolupráci se společností Palantir vedla Pentagon ke zvážení označení Anthropic za „riziko dodavatelského řetězce“ – označení obvykle vyhrazené pro zahraniční protivníky – pokud společnost nezruší omezení vojenského použití.
Primární konflikt: etické hranice vs. provozní potřeby
Anthropic jasně stanovil dvě hranice: žádné hromadné sledování Američanů a žádné plně autonomní zbraně. Generální ředitel Dario Amodei trvá na tom, že Anthropic bude podporovat národní obranu, aniž by opakoval praktiky autoritářských režimů. Pentagon však tvrdí, že tato omezení jsou nepraktická a brání plnému využití AI ve vojenských operacích.
Spor vyvolává zásadní otázky: Může společnost založená na bezpečnostních principech AI zachovat tyto standardy, když jsou její nástroje integrovány do tajných vojenských sítí? Je možné sladit potřebu pokročilých schopností AI s přísnými etickými omezeními?
Šedé oblasti a měnící se definice
Odborníci varují, že stávající právní rámce nemusí držet krok s rychlým rozvojem umělé inteligence. Snowdenova odhalení ukázala, jak mohou vlády využít právní mezery k ospravedlnění hromadného sběru dat. Systémy umělé inteligence nyní mohou analyzovat obrovské soubory dat v bezprecedentním měřítku, čímž se stírá hranice mezi sledováním a sběrem zpravodajských informací.
Mění se také definice „autonomních zbraní“. Zatímco Anthropic zakazuje systémy, které vybírají a zasahují cíle bez lidského zásahu, izraelské systémy Lavender a Gospel demonstrují, jak může umělá inteligence automatizovat identifikaci cíle a ponechat schvalování úderů na lidech. To vyvolává obavy ohledně míry lidské kontroly potřebné k udržení etického vládnutí.
Budoucnost AI v obraně
Spor mezi Anthropicem a Pentagonem zdůrazňuje výzvy spojené s integrací umělé inteligence do vojenských operací. Pokročilé modely společnosti, včetně autonomní koordinace agentů a velké pracovní paměti, nabízejí významné výhody pro analýzu zpravodajství a provozní efektivitu. Tyto stejné možnosti však znesnadňují dodržování přísných etických hranic.
Jak se AI stává výkonnější, hranice mezi analytickou podporou a cílenou aplikací se může stále více stírat. Závazek společnosti Anthropic k bezpečnosti bude nejprve testován, protože její technologie bude nadále nasazována do tajných vojenských sítí. Zda společnost zůstane věrná svým zásadám, ukáže čas.
Tato patová situace je kritickým testem: může etický vývoj umělé inteligence a potřeby vojenských operací koexistovat, nebo pragmatismus nevyhnutelně zvítězí nad principem? Výsledek tohoto konfliktu určí budoucnost nasazení AI v obraně a vyvolá širší otázky o odpovědnosti ve věku strojové inteligence.





















