Alphabet, perusahaan induk Google, telah mencabut kebijakan lama yang sebelumnya melarang penggunaan kecerdasan buatan (AI) dalam pengembangan senjata atau teknologi pengawasan. Langkah ini menimbulkan kekhawatiran di kalangan pakar dan organisasi hak asasi manusia, mengingat dampaknya yang bisa sangat luas.
Perubahan ini menghapus prinsip yang sebelumnya menegaskan bahwa AI tidak akan digunakan untuk menciptakan teknologi yang berpotensi menimbulkan kerusakan atau bahaya. Keputusan tersebut menuai kritik dari berbagai pihak, termasuk Human Rights Watch, yang menganggap bahwa penggunaan AI dalam dunia militer dapat berujung pada dampak fatal.
“Bagi pemimpin industri global mengabaikan aturan yang dibuatnya sendiri adalah tanda pergeseran yang mengkhawatirkan, pada saat kita membutuhkan kepemimpinan di bidang AI yang bertanggung jawab,” cetus Anna Bacciarelli, periset senior AI di Human Rights Watch yang dikutip dari BBC.
Teknologi kecerdasan buatan memang telah menjadi bagian tak terpisahkan dari berbagai sektor, termasuk bidang pertahanan. Namun, para ahli memperingatkan bahwa senjata yang didukung AI berpotensi bertindak secara otonom, menciptakan situasi yang sulit dikendalikan dan bahkan bisa menyebabkan korban jiwa dalam skala besar.
“Sistem yang memasukkan AI di militer telah dipakai di Ukraina dan Timur Tengah dan beberapa negara mau mengintegrasikan AI ke militer mereka. Ini memunculkan pertanyaan sejauh mana mesin diizinkan untuk membuat keputusan militer, termasuk keputusan untuk membunuh dalam skala luas,” cetus para ilmuwan di Doomsday Clock.
Sebelumnya, prinsip AI Google secara eksplisit menyebutkan bahwa mereka tidak akan mengembangkan senjata atau teknologi yang dirancang khusus untuk mencederai manusia, serta sistem pengawasan yang melanggar norma-norma internasional. Namun, pernyataan ini kini telah dihapus dari laman resmi Prinsip AI mereka.
Dalam menghadapi dinamika global yang semakin kompleks, Google tampaknya menyesuaikan kebijakan AI-nya dengan perubahan geopolitik dan persaingan di sektor teknologi.
“Ada persaingan global untuk kepemimpinan AI dalam lanskap geopolitik yang makin kompleks. Kami percaya demokrasi harus memimpin dalam pengembangan AI, dipandu nilai-nilai inti seperti kebebasan, kesetaraan, dan penghormatan terhadap HAM,” tulis Demis Hassabis, CEO Google DeepMind.
Perubahan ini menimbulkan pertanyaan besar mengenai masa depan AI dalam dunia militer dan pengawasan. Apakah keputusan Alphabet ini akan menjadi langkah maju dalam inovasi atau justru menciptakan ancaman baru bagi keamanan global?