Anthropic, pengembang AI terkemuka, sedang berselisih dengan Pentagon mengenai pembatasan penggunaan model kecerdasan buatannya oleh militer. Perselisihan ini berpusat pada komitmen Anthropic terhadap prinsip-prinsip “mengutamakan keselamatan” dan tuntutan Pentagon untuk akses tidak terbatas terhadap AI untuk “semua tujuan yang sah.” Konflik ini menyoroti meningkatnya ketegangan antara pengembangan AI yang etis dan tuntutan keamanan nasional.
Pendakian Cepat dan Kepentingan Militer Antropis
Anthropic dengan cepat menjadi pemain utama dalam industri AI. Model terbarunya, Claude Opus 4.6 dan Sonnet 4.6, menunjukkan kemampuan tingkat lanjut, termasuk mengoordinasikan tim agen otonom, menavigasi aplikasi web, dan memproses data dalam jumlah besar. Perusahaan baru-baru ini mendapatkan pendanaan sebesar $30 miliar dengan valuasi $380 miliar, yang menandakan pertumbuhan pesatnya.
Ketertarikan Pentagon terhadap teknologi Anthropic semakin meningkat setelah muncul laporan mengenai pasukan operasi khusus AS yang diduga menggunakan Claude selama penggerebekan di Venezuela. Operasi ini, yang dilakukan dalam kemitraan dengan Palantir, mendorong Pentagon untuk mempertimbangkan untuk menetapkan Anthropic sebagai “risiko rantai pasokan” – sebuah label yang biasanya ditujukan untuk musuh asing – kecuali jika mereka mencabut pembatasan penggunaan militer.
Konflik Inti: Batasan Etis vs. Kebutuhan Operasional
Anthropic telah menarik dua garis tegas: tidak ada pengawasan massal terhadap orang Amerika dan tidak ada senjata yang sepenuhnya otonom. CEO Dario Amodei menegaskan bahwa Anthropic akan mendukung pertahanan nasional tanpa meniru praktik rezim otoriter. Namun, Pentagon berpendapat bahwa pembatasan ini tidak praktis dan menghambat kemampuannya untuk sepenuhnya memanfaatkan AI dalam operasi militer.
Perdebatan ini menimbulkan pertanyaan mendasar: dapatkah perusahaan yang didirikan berdasarkan prinsip keselamatan AI mempertahankan standar tersebut setelah peralatannya diintegrasikan ke dalam jaringan militer rahasia? Apakah mungkin untuk menyelaraskan permintaan akan kemampuan AI tingkat lanjut dengan batasan etika yang ketat?
Area Abu-abu dan Definisi yang Berkembang
Para ahli memperingatkan bahwa kerangka hukum yang ada mungkin kesulitan untuk mengimbangi kemajuan pesat dalam AI. Pengungkapan Snowden menunjukkan bagaimana pemerintah dapat memanfaatkan celah hukum untuk membenarkan pengumpulan data secara massal. Kini, sistem AI dapat menganalisis kumpulan data yang sangat besar pada skala yang belum pernah terjadi sebelumnya, sehingga mengaburkan batas antara pengawasan dan pengumpulan intelijen.
Definisi “senjata otonom” juga terus berkembang. Meskipun Anthropic melarang sistem yang memilih dan menyerang target tanpa pengawasan manusia, sistem Lavender dan Gospel milik militer Israel menunjukkan bagaimana AI dapat mengotomatiskan identifikasi target, sehingga manusia dapat menyetujui serangan tersebut. Hal ini menimbulkan kekhawatiran mengenai tingkat pengawasan manusia yang diperlukan untuk mempertahankan kontrol etika.
Masa Depan AI dalam Pertahanan
Kebuntuan antara Anthropic dan Pentagon menggarisbawahi tantangan dalam mengintegrasikan AI ke dalam operasi militer. Model canggih perusahaan, termasuk koordinasi agen otonom dan memori kerja yang besar, menawarkan keuntungan signifikan untuk analisis intelijen dan efisiensi operasional. Namun, kemampuan yang sama membuat semakin sulit untuk menegakkan batasan etika yang ketat.
Seiring dengan semakin canggihnya AI, perbedaan antara dukungan analitis dan penargetan yang dapat ditindaklanjuti mungkin menjadi semakin kabur. Komitmen Anthropic terhadap prinsip-prinsip yang mengutamakan keselamatan akan diuji seiring dengan semakin tertanamnya teknologinya dalam jaringan militer rahasia. Apakah perusahaan dapat mempertahankan garis merahnya masih harus dilihat.
Konfrontasi ini merupakan ujian penting: dapatkah pengembangan AI yang etis sejalan dengan tuntutan operasi militer, atau akankah pragmatisme mengesampingkan prinsip? Hasilnya akan membentuk masa depan penerapan AI di bidang pertahanan dan menimbulkan pertanyaan yang lebih luas tentang akuntabilitas di era kecerdasan mesin.






















