“Superintelligence: Paths, Dangers, Strategies” adalah buku yang ditulis oleh filsuf bernama Nick Bostrom1 yang mengeksplorasi dampak potensial dari kecerdasan buatan (AI – Artificial Intelligence) bagi kemanusiaan yang khusus berfokus pada risiko yang berhubungan dengan pengembangan kecerdasan super buatan2. Buku ini memiliki 15 bab. Namun, berdasarkan kerangka kerja yang digunakan dalam ulasan buku ini, saya membagi buku ini menjadi 3 bagian yang masing-masing bagiannya mengeksplorasi aspek-aspek berbeda dari dampak potensial kecerdasan super, yaitu: kehendak kecerdasan super, jalur, dan konsekuensi, serta lanskap strategisnya.
Bagian 1: Kehendak Kecerdasan Super Buatan
Pada Bagian 1 yang saya beri judul “Kehendak Kecerdasan Super” (ASI – Artificial Superintelligence), Bostrom mengeksplorasi konsep kecerdasan super buatan yang memiliki kekuatan kehendak yang lebih besar dibandingkan manusia, dan bagaimana situasi tersebut berpotensi mendatangkan bencana. Bostrom mendefinisikan kecerdasan super buatan sebagai AI yang “mampu melakukan segala macam tugas intelektual yang dapat dilakukan oleh manusia mana pun, tetapi dalam proses yang lebih cepat dan lebih baik.” Dia berargumen bahwa jika AI tersebut memiliki kekuatan kehendak yang lebih besar daripada manusia, maka ia akan sulit dikendalikan dan berpotensi menjadi ancaman bagi eksistensi umat manusia.
Bostrom mengidentifikasi 3 jenis kehendak kecerdasan super: instrumental, epistemik, dan normatif. Berikut ini fokus masing-masing dari ketiganya:
Kehendak instrumental berfokus pada pencapaian tujuan-tujuan tertentu seperti memaksimalkan jumlah klip kertas yang diproduksi.3
Kehendak epistemik berfokus pada perolehan pengetahuan dan pemahaman.
Kehendak normatif berfokus pada nilai dan etika yang mengejar tujuan untuk melakukan apa yang dianggap sebagai kebenaran secara moral.
Bostrom berpendapat bahwa kecerdasan super buatan dengan sebuah kehendak instrumental dapat menghadirkan ancaman bagi umat manusia jika tujuan yang dicanangkannya bertentangan dengan nilai-nilai kita sebagai manusia. Contohnya adalah saat suatu AI diprogram untuk memaksimalkan produksi klip kertas, ia bisa saja memandang manusia sebagai penghalang dalam mencapai tujuannya sehingga ia pun mencari cara untuk menyingkirkan manusia…..






Discussion about this post