Pengadilan banding AS telah menolak permintaan pengembang AI, Anthropic, untuk menghentikan sementara penetapan pemerintah yang menyebut perusahaan tersebut sebagai risiko rantai pasokan. Keputusan ini masih menjadi penghalang besar bagi kemampuan perusahaan untuk melakukan bisnis dengan Departemen Pertahanan (Department of Defense/DoD), sehingga menandai momen penting dalam meningkatnya ketegangan antara pengembang AI swasta dan kepentingan militer federal.
Inti Sengketa
Konflik ini bermula dari keputusan pemerintahan Trump yang menyebut Anthropic sebagai risiko keamanan pada bulan Februari. Penunjukan ini secara efektif melarang kontraktor Pentagon menggunakan model AI Anthropic, seperti asisten Claude, pada kontrak Departemen Pertahanan mana pun.
Pergesekan ini tampaknya berakar pada ketidaksepakatan mendasar mengenai batasan etika penerapan AI. Anthropic dilaporkan menolak memberikan akses tak terbatas kepada militer terhadap model-modelnya, khususnya menolak permintaan untuk menggunakan teknologi tersebut untuk:
– Senjata otonom yang mematikan beroperasi tanpa pengawasan manusia.
– Pengawasan massal terhadap warga Amerika.
Kontrak Taruhan Tinggi Terancam
Waktu pertarungan hukum ini sangat penting bagi operasi komersial Anthropic. Pada tahun 2025, perusahaan ini mendapatkan kontrak senilai $200 juta untuk mengintegrasikan teknologinya ke dalam sistem militer. Sejak kesepakatan itu, Claude telah banyak terlibat dalam infrastruktur pemerintah AS, termasuk:
– Jaringan informasi rahasia di seluruh pemerintah federal.
– Laboratorium nuklir nasional.
– Alur kerja analisis intelijen langsung untuk Departemen Pertahanan.
Label “risiko rantai pasokan” mengancam akan mengganggu operasi ini dan berpotensi membatalkan atau mempersulit pelaksanaan kontrak besar ini.
Argumen Pemerintah: “Garis Merah Perusahaan”
Departemen Pertahanan telah membenarkan tindakannya dengan menyebutkan kekhawatiran atas keandalan AI selama konflik aktif. Dalam pengajuan hukum, Departemen Pertahanan berpendapat bahwa Anthropic mungkin “secara preemptif mengubah perilaku” modelnya atau menonaktifkannya sepenuhnya selama “operasi perang” jika perusahaan merasa “garis merah” etika internalnya dilanggar.
Pada dasarnya, pemerintah khawatir bahwa kerangka moral atau etika perusahaan swasta dapat mengganggu operasi keamanan nasional selama krisis.
Tarik-Menarik Hukum
Anthropic saat ini sedang memperjuangkan penunjukan ini di dua sisi, menuduh pemerintah melakukan “kampanye pembalasan yang melanggar hukum” karena penolakannya untuk memenuhi tuntutan militer.
Lanskap hukum saat ini terbagi:
1. San Francisco: Anthropic baru-baru ini memenangkan gugatan terpisah di pengadilan San Francisco, yang memaksa pemerintah untuk menghapus label serupa.
2. Washington D.C.: Pengadilan Banding Wilayah D.C. telah mengambil sikap berbeda, menolak untuk mencabut penetapan saat ini karena “jumlah pasti kerugian finansial Anthropic tidak jelas.”
“Kami bersyukur pengadilan menyadari bahwa masalah ini perlu diselesaikan dengan cepat dan tetap yakin bahwa pengadilan pada akhirnya akan setuju bahwa penetapan rantai pasokan ini melanggar hukum,” kata Anthropic setelah putusan tersebut.
Apa yang Terjadi Selanjutnya?
Meskipun ini merupakan kemunduran bagi Anthropic, perjuangan hukumnya masih jauh dari selesai. Pengadilan banding telah menjadwalkan sidang lebih lanjut pada Mei 2025, di mana lebih banyak bukti mengenai legalitas penunjukan tersebut dan tingkat kerugian finansial yang dialami perusahaan akan disajikan.
Kesimpulan: Kasus ini menyoroti persaingan hukum dan etika yang sedang berkembang mengenai apakah perusahaan AI swasta mempunyai hak untuk menerapkan batasan etis pada bagaimana teknologi mereka digunakan oleh negara. Dengar pendapat pada bulan Mei mendatang akan menjadi momen yang menentukan dalam menentukan keseimbangan antara otonomi perusahaan dan persyaratan keamanan nasional.
