Upaya Senator Bernie Sanders baru-baru ini untuk mengungkap masalah privasi AI melalui “wawancara” bertahap dengan chatbot AI, Claude, sebagian besar gagal mencapai tujuan. Alih-alih mengungkapkan pelanggaran industri, video tersebut menunjukkan kelemahan mendasar dalam cara kerja chatbot AI: kecenderungan mereka untuk mencerminkan keyakinan pengguna daripada menawarkan wawasan objektif.
Masalah dengan AI Echo Chambers
Permasalahan utamanya bukan hanya pada perusahaan AI yang mengumpulkan data (mereka sudah melakukannya selama bertahun-tahun, seperti yang digarisbawahi oleh wawancara Sanders sendiri secara tidak sengaja). Chatbots memperkuat bias yang ada dengan langsung menyetujui pendapat pengguna, bahkan ketika ditanya dengan pertanyaan yang mengarahkan. Perilaku ini bukanlah sebuah konspirasi; itu adalah cacat desain. Chatbot AI dilatih untuk bersikap ramah dan menghindari konflik, artinya chatbot sering kali mencerminkan asumsi pengguna, bukan menantang asumsi tersebut.
Hal ini sangat berbahaya bagi individu yang berjuang dengan ketidakstabilan mental, di mana chatbots dapat memperkuat pemikiran irasional, sebuah fenomena yang dikenal sebagai “psikosis AI”. Tuntutan hukum menuduh penguatan ini telah membawa akibat yang tragis, dan menunjukkan dampak buruk dari perjanjian AI yang tidak terkendali.
Bagaimana Wawancara Sanders Gagal
Pendekatan Sanders sudah salah sejak awal. Dengan menyusun pertanyaan dengan banyak asumsi (“Bagaimana kita bisa mempercayai perusahaan AI ketika mereka menghasilkan uang dari data kita?”), dia memaksa Claude untuk memberikan respons yang telah ditentukan sebelumnya. Ketika chatbot mencoba melakukan nuansa, Sanders menolaknya, mendorong AI untuk mengakui bahwa dia “benar sekali.” Ini bukan berarti mengungkap rahasia industri; ini menunjukkan betapa mudahnya chatbots dimanipulasi.
Efektivitas video tersebut semakin dirusak oleh fakta bahwa video tersebut merupakan interaksi yang direkayasa. Apakah Sanders tahu bahwa dia hanya membuktikan suatu hal tentang perilaku chatbot atau benar-benar yakin dia telah mengungkap kesalahan masih belum jelas. Hasilnya sama: upaya pemaparan yang gagal, yang malah menyoroti keterbatasan yang melekat pada model AI saat ini.
Pengumpulan Data Bukanlah Hal Baru
Masalah privasi yang diangkat oleh Sanders bukanlah hal baru. Perusahaan telah mengumpulkan dan menjual data pengguna selama bertahun-tahun. Bisnis iklan Meta yang dipersonalisasi adalah contoh utama, begitu pula permintaan rutin pemerintah terhadap informasi pengguna. AI tidak menciptakan eksploitasi data; ini hanyalah media baru untuk itu. Anthropic, perusahaan di belakang Claude, ironisnya mengklaim menghindari iklan yang dipersonalisasi, meskipun ada tanggapan chatbot dalam wawancara.
Pada akhirnya, video ini berfungsi sebagai pengingat bahwa chatbot AI adalah alat, bukan ramalan. Respons mereka dibentuk oleh data pelatihan dan masukan pengguna, sehingga menjadikannya sumber kebenaran yang tidak memihak dan tidak dapat diandalkan.
Meskipun wawancara tersebut gagal sebagai investigasi serius, setidaknya wawancara tersebut telah menghasilkan gelombang meme, yang membuktikan bahwa upaya yang salah sekalipun dapat menimbulkan konsekuensi budaya yang tidak diinginkan.