Miscellaneous

Roboethics: Etika Manusia yang Diterapkan pada Robot

Roboethics: Etika Manusia yang Diterapkan pada Robot

Dalam 1940-an, Penulis Amerika Isaac Asimov mengembangkan Tiga Hukum Robotika dengan alasan bahwa robot cerdas harus diprogram sedemikian rupa sehingga ketika menghadapi konflik mereka harus mengirimkan dan mematuhi tiga hukum berikut:

  • Robot tidak boleh melukai manusia, atau, karena tidak bertindak, membiarkan manusia mencelakakan

  • Robot harus mematuhi perintah yang diberikan oleh manusia kecuali jika perintah tersebut akan bertentangan dengan Hukum Pertama

  • Robot harus melindungi keberadaannya sendiri selama perlindungan tersebut tidak bertentangan dengan Hukum Pertama atau Kedua

Hukum Robotika Isaac Asimov pertama kali diperkenalkan dalam cerita pendek fiksi ilmiah Berlari mengitari, (PDF) diterbitkan dalam terbitan Maret 1942 dari Fiksi Ilmiah Mencengangkan.

Maju cepat hampir 80 tahun ke masa sekarang, hari ini, Tiga Hukum Robotika Asimov mewakili lebih banyak masalah dan konflik bagi para ahli robot daripada yang mereka pecahkan.

Ahli robot, filsuf, dan insinyur melihat perdebatan yang sedang berlangsung tentang etika mesin. Etika mesin, atau roboethics, adalah proposal praktis tentang cara merekayasa dan memberikan sanksi etis untuk robot secara bersamaan.

Siapa atau apa yang akan dimintai pertanggungjawaban ketika atau jika sistem otonom tidak berfungsi atau merugikan manusia?

Saat ini, para peneliti mengikuti tren yang bertujuan untuk mempromosikan desain dan implementasi sistem buatan dengan perilaku yang dapat diterima secara moral.

Tentang etika dan roboetika

Etika adalah cabang filsafat yang mempelajari perilaku manusia, penilaian moral, konsep baik dan jahat, benar dan salah, keadilan dan ketidakadilan. Konsep roboethics memunculkan refleksi etika fundamental yang terkait dengan isu-isu tertentu dan dilema moral yang ditimbulkan oleh perkembangan aplikasi robotik.

Roboethics --juga disebut etika mesin - berhubungan dengan kode etik yang harus diterapkan oleh insinyur perancang robotik dalam Artificial Intelligence robot. Melalui etika artifisial semacam ini, ahli robotik harus menjamin bahwa sistem otonom akan dapat menunjukkan perilaku yang dapat diterima secara etis dalam situasi di mana robot atau sistem otonom lainnya seperti kendaraan otonom berinteraksi dengan manusia.

Masalah etika akan terus meningkat selama robotika yang lebih maju muncul. Di Lanskap Etis Robotika (PDF) oleh Pawel Lichocki et al., Diterbitkan oleh IEEE Robotics and Automation Magazine, para peneliti membuat daftar berbagai masalah etika yang muncul dalam dua rangkaian aplikasi robotik: Robot servis dan robot yang mematikan.

Robot layanan diciptakan untuk hidup damai dan berinteraksi dengan manusia, sedangkan robot mematikan diciptakan untuk dikirim berperang di medan perang sebagai robot militer.

Berdasarkan Lanskap Etis Robotika, Noel Shanky berpendapat bahwa "kemampuan kognitif robot tidak sesuai dengan manusia, dan dengan demikian, robot yang mematikan tidak etis karena mereka dapat membuat kesalahan lebih mudah daripada manusia." Dan Ronald Arkin percaya bahwa "meskipun sistem tak berawak tidak akan dapat berperilaku sempurna di medan perang, sistem tersebut dapat bekerja lebih etis daripada manusia."

Sebagian, pertanyaan tentang moralitas penggunaan robot di medan perang melibatkan komitmen pada kemampuan dan jenis Artificial Intelligence dalam pertanyaan.

Robot di militer: Dirancang untuk membunuh dan akuntabilitas moral

Robot militer tentunya bukan hanya sesuatu yang ada saat ini. Mereka berasal dari Perang Dunia II dan Perang Dingin. Goliat Jerman melacak ranjau dan teletank Soviet. Robot militer dapat digunakan untuk menembakkan senjata, melucuti senjata bom, membawa tentara yang terluka, mendeteksi ranjau, menembakkan rudal, terbang, dan sebagainya.

Saat ini, banyak kegunaan lain untuk robot militer sedang dikembangkan dengan menerapkan teknologi lain untuk robotika. Militer AS akan menghitung seperlima dari unit tempurnya sepenuhnya otomatispada tahun 2020.

Jenis robotika apa yang akan ditanamkan pada robot militer dan siapa yang akan memutuskannya? Hukum Asimov tidak dapat diterapkan pada robot yang dirancang untuk membunuh manusia.

Juga pada tahun 2020, tentara AS akan menjalani uji langsung kendaraan robotik lapis baja. Sebuah demonstrasi diadakan pada bulan Mei di Texas.

Akankah robot menjadi agen moral di masa depan?

Roboethics akan menjadi semakin penting saat kita memasuki era dimana robot yang semakin canggih dan canggih serta Artificial General Intelligence (AGI) akan menjadi bagian integral dari kehidupan kita sehari-hari.

Oleh karena itu, perdebatan tentang masalah etika dan sosial dalam robotika tingkat lanjut harus menjadi semakin penting. Pertumbuhan robotika saat ini dan perkembangan pesat dalam Kecerdasan Buatan memerlukan para ahli robot dan manusia pada umumnya untuk bersiap lebih cepat daripada nanti.

Saat diskusi tentang roboethics semakin maju, beberapa orang berpendapat bahwa robot akan berkontribusi untuk membangun dunia yang lebih baik. Beberapa yang lain berpendapat bahwa robot tidak mampu menjadi agen moral dan tidak boleh dirancang dengan kemampuan pengambilan keputusan moral yang tertanam.

Akhirnya, mungkin belum, tetapi di masa depan robot bisa menjadi agen moral dengan tanggung jawab moral yang dikaitkan. Hingga saat itu, insinyur dan perancang robot harus memikul tanggung jawab terkait konsekuensi etis dari kreasi mereka.

Dengan kata lain, insinyur dan perancang robot harus bertanggung jawab secara moral atas apa yang mereka rancang dan hasilkan ke dunia.


Tonton videonya: Can we apply human ethics to robots? Roboethics (November 2021).