Amazon, Microsoft, 'Menempatkan Dunia pada Risiko Pembunuh AI': Studi

Amazon, Microsoft, dan Intel adalah di antara perusahaan teknologi terkemuka yang menempatkan dunia dalam risiko melalui pengembangan robot pembunuh, menurut sebuah laporan yang mensurvei para pemain utama dari sektor ini tentang sikap mereka terhadap senjata otonom mematikan.

LSM Belanda Pax memberi peringkat 50 perusahaan dengan tiga kriteria: apakah mereka mengembangkan teknologi yang bisa relevan dengan AI yang mematikan, apakah mereka bekerja pada proyek-proyek militer terkait, dan jika mereka telah berkomitmen untuk tidak berkontribusi di masa depan.

"Mengapa perusahaan seperti Microsoft dan Microsoft? Amazon tidak menyangkal bahwa mereka sedang mengembangkan senjata yang sangat kontroversial ini, yang dapat memutuskan untuk membunuh orang tanpa keterlibatan manusia langsung? "kata Frank Slijper, penulis utama laporan yang diterbitkan minggu ini.

Penggunaan AI untuk memungkinkan sistem senjata untuk memilih dan menyerang sasaran secara otonom telah memicu perdebatan etis dalam beberapa tahun terakhir, dengan kritik memperingatkan mereka akan membahayakan keamanan internasional dan menandai revolusi ketiga dalam peperangan setelah bubuk mesiu dan bom atom.

Panel pakar pemerintah memperdebatkan pilihan kebijakan mengenai senjata otonom yang mematikan pada pertemuan Konvensi PBB tentang Senjata Konvensional Tertentu di Jenewa pada hari Rabu.

Google, yang tahun lalu menerbitkan prinsip-prinsip panduan yang menghindari AI untuk digunakan dalam sistem senjata, termasuk di antara tujuh perusahaan yang ditemukan terlibat dalam "praktik terbaik" dalam analisis yang menjangkau 12 negara, seperti halnya Softbank Jepang, yang terkenal dengan robot Pepper humanoid-nya.

Dua puluh dua perusahaan adalah dari "perhatian sedang," sementara 21 jatuh ke dalam kategori "perhatian tinggi", terutama Amazon dan Microsoft yang keduanya menawar kontrak Pentagon senilai $ 10 miliar untuk menyediakan infrastruktur cloud untuk militer AS.

Yang lain dalam kelompok "perhatian tinggi" termasuk Palantir, sebuah perusahaan yang berakar pada organisasi modal ventura yang didukung CIA yang dianugerahi kontrak $ 800 juta untuk mengembangkan sistem AI "yang dapat membantu tentara menganalisis zona tempur secara real time."

"Senjata otonom pasti akan menjadi senjata pemusnah massal yang dapat diskalakan, karena jika manusia tidak berada dalam lingkaran, maka satu orang dapat meluncurkan satu juta senjata atau seratus juta senjata," Stuart Russell, seorang profesor ilmu komputer di University of California , Berkeley mengatakan kepada AFP, Rabu.

"Faktanya adalah bahwa senjata otonom akan dikembangkan oleh perusahaan, dan dalam hal kampanye untuk mencegah penyebaran senjata otonom, mereka dapat memainkan peran yang sangat besar," tambahnya.

Pengembangan AI untuk keperluan militer telah memicu debat dan protes di dalam industri: tahun lalu Google menolak untuk memperbarui kontrak Pentagon yang disebut Project Maven, yang menggunakan pembelajaran mesin untuk membedakan orang dan objek dalam video drone.

Ini juga keluar dari pencalonan untuk Joint Enterprise Defense Infrastructure (JEDI), kontrak cloud itu Amazon dan Microsoft berharap untuk tas.

Laporan itu mencatat bahwa karyawan Microsoft juga telah menyuarakan penentangan mereka terhadap kontrak Angkatan Darat AS untuk headset augmented reality, Hololens, yang bertujuan "meningkatkan kematian" di medan perang.

Seperti apa bentuknya
Menurut Russell, "apa pun yang saat ini merupakan senjata, orang-orang bekerja pada versi otonom, apakah itu tank, pesawat tempur, atau kapal selam."

Harpy Israel adalah drone otonom yang sudah ada, "berkeliaran" di area target dan memilih situs yang akan ditabrak.

Yang lebih mengkhawatirkan lagi adalah kategori baru senjata otonom yang belum ada – ini bisa termasuk mini-drone bersenjata seperti yang ditampilkan dalam film pendek 2017 "Slaughterbots."

"Dengan senjata jenis itu, Anda dapat mengirim satu juta di antaranya dalam wadah atau pesawat kargo – sehingga mereka memiliki kapasitas bom nuklir yang merusak tetapi meninggalkan semua bangunan di belakang," kata Russell.

Dengan menggunakan teknologi pengenalan wajah, drone dapat "menghapus satu kelompok etnis atau satu jenis kelamin, atau menggunakan informasi media sosial yang dapat Anda hancurkan semua orang dengan pandangan politik."

Uni Eropa pada bulan April menerbitkan pedoman untuk bagaimana perusahaan dan pemerintah harus mengembangkan AI, termasuk kebutuhan untuk pengawasan manusia, bekerja menuju kesejahteraan masyarakat dan lingkungan dengan cara yang tidak diskriminatif, dan menghormati privasi.

Russell berpendapat bahwa penting untuk mengambil langkah selanjutnya dalam bentuk larangan internasional tentang AI mematikan, yang dapat diringkas sebagai "mesin yang dapat memutuskan untuk membunuh manusia tidak boleh dikembangkan, digunakan, atau digunakan."

Pos terkait

Back to top button