Informasi

Haruskah Kita Takut pada Kecerdasan Buatan?

Haruskah Kita Takut pada Kecerdasan Buatan?

Berbicara di sebuah konferensi di Lisbon, Portugal tak lama sebelum kematiannya, Stephen Hawking mengatakan kepada hadirin bahwa perkembangan kecerdasan buatan mungkin menjadi "peristiwa terburuk dalam sejarah peradaban kita," dan dia memiliki banyak alasan untuk khawatir. Dikenal sebagai artificial superintelligence (ASI) oleh peneliti AI, ahli etika, dan lainnya, ia memiliki potensi untuk menjadi lebih kuat dari apa pun yang pernah dilihat planet ini dan kemungkinan akan menjadi tantangan eksistensial terakhir yang akan dihadapi umat manusia sebagai spesies. .

Mengapa Orang Takut dengan Kecerdasan Buatan?

Untuk lebih memahami apa yang membuat Stephen Hawking, Elon Musk, dan banyak lainnya khawatir, kita perlu mendekonstruksi banyak penggambaran budaya populer AI.

Kenyataannya adalah bahwa AI telah bersama kita untuk sementara waktu, sejak komputer dapat membuat keputusan berdasarkan masukan dan kondisi. Ketika kita melihat sistem AI yang mengancam di film, itu adalah kejahatan sistem, ditambah dengan kekuatan komputer, yang membuat kita takut.

Namun, itu masih berperilaku secara fundamental manusia.

LIHAT JUGA: 10 BICARA TED PENTING TENTANG KECERDASAN ARTIFICIAL

Jenis AI yang kita miliki saat ini dapat digambarkan sebagai Artificial Functional Intelligence (AFI). Sistem ini diprogram untuk melakukan peran tertentu dan melakukannya dengan baik atau lebih baik daripada manusia. Mereka juga menjadi lebih berhasil dalam hal ini dalam periode waktu yang lebih singkat daripada yang diperkirakan hampir semua orang, mengalahkan lawan manusia dalam permainan kompleks seperti Go dan Starcraft II yang menurut orang berpengetahuan tidak akan terjadi selama bertahun-tahun, jika tidak puluhan tahun.

Meskipun kita mungkin terlibat dalam humor tiang gantungan tentang kebutuhan kita untuk menyambut tuan robot kita, sebenarnya tidak ada risiko bahwa sistem ini sendiri menimbulkan jenis risiko yang dibicarakan Hawking. AlphaGo mungkin bisa mengalahkan setiap pemain Go manusia dengan mudah dari sekarang sampai kematian panas di Semesta, tapi menanyakan kondisi cuaca saat ini dan tidak memiliki kecerdasan bahkan organisme bersel tunggal yang merespon perubahan suhu.

Apa yang kita pikirkan ketika kita berbicara tentang AI yang berbahaya adalah apa yang oleh para ilmuwan komputer disebut Artificial General Intelligence (AGI), sistem buatan yang sepenuhnya meniru pikiran manusia dan secerdas manusia dalam bidang pengetahuan apa pun, kecuali itu bisa berpikir miliaran kali lebih cepat dari yang kita bisa. Inilah yang cenderung digambarkan oleh film sebagai Skynets yang sangat berbahaya yang ingin memusnahkan umat manusia, tetapi meskipun menakutkan, ini bukanlah masalah yang sebenarnya.

Meski tampaknya mengancam sistem ini, kemungkinan besar kita tidak akan pernah benar-benar melihat AGI muncul. Perhatian sebenarnya adalah apa yang terletak satu langkah di luar AGI.

Membangun Melampaui Kecerdasan Tingkat Manusia

Masalah dalam mengembangkan AGI dalam pengertian tradisional adalah bahwa tidak mungkin memprogram pohon keputusan untuk setiap pertanyaan yang harus diselesaikan oleh AGI. Akan selalu ada sesuatu yang diminta untuk dilakukan yang tidak diprogramkan, seperti menanyakan cuaca pada AlphaGo.

Manusia menghadapi tantangan ini sepanjang waktu dan kapasitas kita untuk belajar dan membentuk koneksi baru di otak kita yang membuat kita mampu memiliki kecerdasan yang canggih dan pemecahan masalah. Jika kita tidak tahu bagaimana memecahkan masalah, kita dapat menganalisisnya dan menemukan jawabannya. Kemampuan inilah yang baru saja kami kembangkan menjadi sistem AI paling canggih yang kami miliki dan ini benar-benar barang zaman batu dalam skema besar.

Untuk benar-benar mencapai AGI, sebuah sistem membutuhkan alat utama yang dianggap biasa oleh manusia, sebagian besar karena otomatis. Ia harus mampu menulis ulang pemrogramannya untuk membuat dirinya lebih pintar, cara biologi manusia secara otomatis mengubah otak untuk mempelajari hal-hal baru. Di sinilah implikasi dan kekhawatiran tentang kecerdasan buatan, keprihatinan ilmiah yang asli daripada versi Hollywood, mulai terbentuk.

Misalkan kita memprogram sistem yang dapat menulis ulang pemrogramannya sendiri untuk membuat dirinya lebih cerdas dalam subjek, keterampilan, atau kemampuan apa pun yang mampu dilakukan manusia. Pada awalnya, ini tidak akan terlalu cerdas sama sekali, tetapi setiap pemurnian yang berurutan, pada gilirannya, akan meningkatkan kemampuannya untuk meningkatkan dirinya sendiri. Setiap langkah kecil dan bertahap akan membangun yang terakhir, tumbuh secara eksponensial.

Akan ada titik dalam proses ini di mana sistem akan berhenti menjadi AFI. Seperti benda padat yang menyublim ke dalam keadaan gasnya, AFI ini tampaknya akan melewati AGI sepenuhnya karena pertumbuhan kecerdasannya menjadi eksplosif, momen yang oleh otoritas AI terkenal Nick Bostrom menyebut ASI Lift-off. Secara harfiah di luar kemampuan kita untuk membayangkan seperti apa kecerdasan semacam ini sebenarnya.

Bisakah Kita Mencabut Artificial Superintelligence?

Ini umumnya merupakan tanggapan paling umum dari publik ketika mereka memikirkan AI pelarian bergaya Skynet. Cabut saja atau sesuatu yang biasa-biasa saja seolah-olah superintelligence buatan adalah modem yang perlu diatur ulang. Kami sudah tahu bahwa ini tidak akan berfungsi, sama seperti Anda tidak dapat menghapus virus komputer atau menghentikan penyebarannya dengan mematikan komputer yang terinfeksi. Begitu infeksinya ada, sudah terlambat.

Jika virus dapat menyematkan dirinya dalam sistem untuk menahan penghapusan atau penggandaan dirinya dan menginfeksi sistem lain bahkan sebelum kita tahu apa yang terjadi, kecerdasan super buatan akan jauh lebih sulit untuk dihapus. Lebih buruk lagi, dengan sesuatu yang cerdas ini, ia dapat menemukan cara untuk melestarikan dirinya sendiri yang kita anggap mustahil karena kita tidak memiliki kecerdasan untuk mengetahui bagaimana mencapainya, seperti mencoba memahami fisika sebuah pesawat sambil memiliki kapasitas otak babon. .

Kami bisa tampak mematikan superintelligence buatan hanya untuk melihatnya muncul kembali di sisi lain dunia seolah-olah dengan sihir dan kami tidak akan pernah tahu bagaimana itu bisa sampai di sana.

Lalu Mengapa Melakukannya Di Semua?

Ini adalah pertanyaan yang secara alami kami tanyakan, tetapi masalahnya adalah bahwa tidak ada cara nyata untuk mengembangkan sistem yang bahkan merupakan persentase AGI yang signifikan yang tidak memerlukan kontrol pertumbuhan dan perkembangan sistem ke AI itu sendiri, seperti cara Perkembangan kecerdasan kita sendiri adalah fungsi otomatis dari otak kita yang membentuk koneksi saraf baru dengan sendirinya.

Jika kita ingin melampaui AFI yang belum sempurna yang kita miliki saat ini, maka kita harus berasumsi bahwa superintelligence buatan sama tak terelakkannya dengan senjata nuklir yang tak terelakkan setelah membelah atom untuk menggunakan fisi nuklir sebagai sumber tenaga. Pada akhirnya, satu-satunya cara untuk mencegah munculnya superintelligence buatan adalah dengan menghentikan pengembangan lebih lanjut dari kecerdasan buatan sama sekali, yang tampaknya tidak mungkin atau bahkan mungkin dilakukan pada saat ini.

Sebagaimana superintelligence buatan memiliki potensi bahaya yang tak terbatas, ia juga dapat dengan mudah bermanfaat, setidaknya bagi penciptanya. Jika Anda memiliki dua negara yang bermusuhan, bagaimana bisa satu negara mempercayai yang lain dengan sistem yang sekuat ini? Sama seperti peluncuran Sputnik oleh Uni Soviet yang mengguncang program luar angkasa AS yang baru lahir menjadi overdrive, pengembangan AI sudah cukup maju sehingga tidak ada yang mau menempati posisi kedua dalam perlombaan AI. Sisi negatif dari tertinggal terlalu besar.

Jika insentif lebih besar di sisi pengembangan AI yang lebih canggih daripada orang berikutnya, maka perlombaan senjata AI tidak bisa dihindari, dan seperti yang telah kita lihat, tidak ada jalan menuju AGI yang tidak segera menghasilkan ASI. kemudian. Jadi, jika kemunculannya hampir dijamin semakin banyak kami meneliti dan mengembangkan kecerdasan buatan, maka Anda memiliki lebih banyak insentif untuk menjadi orang yang mengembangkannya terlebih dahulu. Dengan begitu, Anda memiliki peluang terbaik bahwa superintelligence akan baik hati terhadap Anda, atau setidaknya tidak bermusuhan.

Selamat datang di Dilema Tahanan tentang kecerdasan buatan.

Haruskah Kita Takut pada Kecerdasan Buatan?

Tentu saja.

Seperti halnya setiap perkembangan teknologi, selalu ada konsekuensi yang tidak diinginkan, dan begitu kita memiliki kecerdasan super buatan, tidak ada jalan mundur.

Tetapi, kita harus ingat bahwa sudah menjadi sifat kita untuk melihat ancaman yang ditimbulkan oleh sistem seperti itu karena kita terprogram oleh evolusi untuk menemukan bahaya dan menghindarinya. Sesuatu yang sekuat ini memang dapat memutuskan, dan kemungkinan besar akan memiliki kekuatan, untuk memusnahkan semua kehidupan manusia jika tujuannya adalah untuk melestarikan keseluruhan kehidupan planet ini. Ancaman terbesar bagi kehidupan di Bumi adalah peradaban manusia.

Tetapi, jika ia memiliki kekuatan seperti itu, ia akan memiliki kekuatan yang sama besarnya untuk mencegah atau bahkan membalikkan Perubahan Iklim, dan di situlah letak pilihan yang harus dibuat umat manusia.

Sama seperti potensi kerugian dari ASI yang tidak terbatas, sama tidak mungkinnya untuk membatasi kebaikan yang dapat dicapai oleh sesuatu seperti ini. Apa pun yang kami pikirkan, ASI berpotensi untuk berbuat lebih banyak. Perubahan iklim, pemberantasan penyakit, berakhirnya kelaparan dan kelaparan, berakhirnya kematian itu sendiri, dan bahkan lebih cepat daripada perjalanan cahaya ke galaksi-galaksi jauh semuanya bisa dibayangkan — dan mungkin bahkan lebih mungkin — sebagai hasil dari ASI daripada yang abadi. , monster diktator jahat yang diperingatkan Elon Musk.

Kami memiliki alasan kuat untuk percaya bahwa pada akhirnya, ASI akan bermanfaat bagi kami. Setiap kemajuan teknologi harus dibayar mahal, tetapi peradaban manusia telah maju karenanya. Pada akhirnya, manusia memiliki rekam jejak yang solid dalam hal teknologi. Ya, kita bisa memproduksi senjata dengan daya rusak yang luar biasa, tapi kita juga bisa membasmi cacar dan polio. Kita telah banyak menaklukkan kelaparan sebagaimana adanya dan bahkan perang terus menurun.

Jika masa depan kita sama seperti masa lalu kita, maka kita bisa sangat optimis tentang masa depan kecerdasan buatan. Maka, kecerdasan super buatan akan menjadi apa yang kita buat, sama seperti anak-anak lebih dari sekadar produk biologis orang tua mereka, jadi penting bagi kita untuk memutuskan sebagai peradaban jenis kecerdasan buatan apa yang ingin kita ciptakan.


Tonton videonya: Bisakah kecerdasan buatan menggantikan fungsi DPR di Indonesia? (September 2021).