Menarik

Apakah Kita Memprogram Mobil Pembunuh? Etika Kendaraan Otonom

Apakah Kita Memprogram Mobil Pembunuh? Etika Kendaraan Otonom

Selama beberapa tahun terakhir, semakin banyak fitur otonom yang telah ditanamkan pada mobil. Dan hanya beberapa bulan yang lalu, Tesla merilis video berikut yang membanggakan tentang pencapaian "Full Self-Driving".

Sebuah artikel Techopedia melaporkan bahwa mobil Tesla yang lebih awal sekalipun berisi "perangkat keras yang diperlukan untuk mengemudi secara otonom", meskipun mengaktifkan kemampuan tersebut bergantung pada pembaruan perangkat lunak. Artikel tersebut juga membayangkan perbedaan antara cara pembuatan mobil otonom saat ini akan berbeda dengan yang ada di masa depan.

Saat ini, mobil Tesla dilengkapi dengan perangkat keras yang diperlukan untuk mengemudi secara otonom, tetapi pembaruan perangkat lunak diperlukan untuk mengaktifkan fitur tersebut sepenuhnya. Sementara itu akan memungkinkan mengemudi otonom sepenuhnya, itu juga akan tetap memungkinkan pengemudi manusia untuk mengambil kendali ketika situasi membutuhkan intervensi.

Namun, kendaraan otonom generasi berikutnya tidak membutuhkan roda kemudi, pedal, atau transmisi. Keuntungan dari mobil semacam itu adalah kemungkinan untuk mengurangi kecelakaan dan menyediakan transportasi yang diperlukan bagi orang-orang yang tidak mampu mengemudi seperti orang tua atau mereka yang memiliki gangguan penglihatan atau fisik.

Tetapi ada juga potensi kerugiannya: keharusan bagi agen manusia yang mengatur program mobil untuk meramalkan semua skenario yang mungkin dan mengarahkan mobil untuk membuat penilaian yang harus dilakukan orang ketika skenario tersebut membutuhkan tindakan yang pasti akan menyebabkan beberapa bentuk kerusakan.

Meskipun Tesla mungkin nama paling terkenal di bagian depan AI untuk kendaraan, Tesla bukan satu-satunya pemain di pasar yang berkembang ini. Beberapa nama yang jauh lebih terhormat di industri juga ikut serta.

TERKAIT: SEJARAH MENARIK MOBIL LISTRIK

Bernard Marr baru-baru ini menulis tentang investasi miliaran dolar Toyota dalam mobil tanpa pengemudi dan AI. Perusahaan telah menetapkan tujuan untuk dirinya sendiri yang ingin dicapai pada tahun 2020:

“Melalui investasi Toyota dalam start-up teknologi seperti Perceptive Automata, Toyota berharap dapat menciptakan teknologi yang memungkinkan kendaraan otonom memiliki intuisi yang lebih mirip manusia saat berada di jalan, lebih mirip dengan cara pengemudi manusia berinteraksi dengan pejalan kaki.”

Rekam jejak keselamatan mengemudi sendiri

Tentu saja, kami belum sampai. Tetapi pertanyaannya adalah apakah itu tujuan akhirnya dan apakah itu adalah sesuatu yang harus kita kejar tanpa pertimbangan penuh konsekuensi dari mobil yang sepenuhnya mandiri.

Setiap Kecelakaan Mobil Yang Mengemudi Sendiri Dan Kematian Daftar sembilan kecelakaan yang melibatkan kendaraan otonom, hanya empat yang menyebabkan kematian. Terlepas dari klaim judulnya, daftarnya tidak lengkap, karena ada korban jiwa dari kecelakaan seperti itu setelah artikel itu diterbitkan.

Kematian terakhir yang dilaporkan adalah yang melibatkan Tesla Model X pada 23 Maret 2018. Pengemudi mobil tersebut tewas saat menabrak pembatas jalan raya. Tesla menyalahkannya atas gangguan penghalang dengan sistem penggerak otonom kendaraan:

"Alasan kecelakaan ini begitu parah adalah karena peredam tabrakan, penghalang keselamatan jalan raya yang dirancang untuk mengurangi benturan ke pembatas jalur beton, telah hancur dalam kecelakaan sebelumnya tanpa diganti," kata Tesla dalam pernyataannya.

Perusahaan menambahkan: "Kami belum pernah melihat tingkat kerusakan Model X ini dalam kecelakaan lainnya."

Sayangnya, itu bukanlah akhir dari kecelakaan fatal bagi mobil self-driving Tesla. Beberapa di antaranya terjadi tahun ini.

Di antara insiden tersebut adalah salah satunya pada tanggal 1 Maret 2019. Telah dikonfirmasi oleh Dewan Keselamatan Transportasi Nasional (NTSB) AS bahwa perangkat lunak semi-otonom Autopilot digunakan pada Tesla Model 3 ketika ditancapkan ke dalam trailer traktor yang mencoba melintasi Florida jalan raya dan pengemudi mobil tewas.

Meski masih tergolong jarang, dibandingkan dengan kecelakaan mobil yang disebabkan oleh pengemudi manusia, fakta adanya kecelakaan dan korban jiwa yang diakibatkan oleh mobil self-driving membuat masyarakat khawatir akan keselamatan dan pemrogramannya. Faktanya, tahun ini Quartz meragukan klaim keamanan Tesla.

Seperti kecelakaan Tesla itu, sebagian besar kecelakaan mobil otonom mengakibatkan kematian orang yang duduk di kursi pengemudi. Namun, ada kasus orang di luar mobil ditabrak dan dibunuh oleh mobil otonom.

Insiden paling terkenal semacam itu mungkin yang melibatkan Uber dalam kematian Elaine Herzberg pada Maret 2018. Wanita berusia 49 tahun itu sedang berjalan dan mendorong sepedanya melintasi Mille Avenue di Tempe, Arizona ketika mobil Uber menabraknya.

Anda bisa melihat video kejadian yang dirilis oleh polisi di sini:

Oleh karena itu, Uber mengambil kebijakan untuk memasukkan pengemudi manusia ke dalam mobilnya. Ceritanya dilaporkan di sini: Uber Menempatkan Mobil yang Mengemudi Sendiri Kembali Berfungsi tetapi Dengan Pengemudi Manusia.

Ini adalah cara bagi Uber untuk menghindari masalah yang harus kita hadapi, jika dan ketika mobil otonom sepenuhnya menjadi norma: bagaimana memprogramnya untuk memasukkan naluri untuk melestarikan kehidupan manusia.

Memprogram AI dengan memperhatikan etika

Seperti yang kita lihat di artikel lain, Dunia Baru Kita yang Berani: Mengapa Kemajuan AI Menimbulkan Masalah Etis, dengan kekuatan AI yang besar datang tanggung jawab yang besar, untuk memastikan bahwa teknologi tidak berakhir membuat situasi menjadi lebih buruk atas nama kemajuan. Studi etika untuk AI telah menarik perhatian orang-orang yang memikirkan tentang apa yang perlu dilakukan sebelum menerapkan solusi otomatis.

Salah satunya adalah Paul Thagard, Ph.D., seorang filsuf Kanada, dan ilmuwan kognitif mengemukakan beberapa masalah yang sekarang harus kita hadapi sehubungan dengan etika pemrograman ke dalam AI dalam How to Build Ethical Artificial Intelligence.

Dia memunculkan 3 rintangan berikut:

  1. Teori etika sangat kontroversial. Beberapa orang lebih menyukai prinsip etika yang ditetapkan oleh teks agama seperti Alkitab atau Alquran. Para filsuf berdebat tentang apakah etika harus didasarkan pada hak dan kewajiban, pada kebaikan terbesar untuk sebagian besar orang, atau pada bertindak dengan baik.
  2. Bertindak etis membutuhkan nilai moral yang memuaskan, tetapi tidak ada kesepakatan tentang nilai mana yang sesuai atau bahkan tentang nilai apa. Tanpa memperhitungkan nilai-nilai yang tepat yang digunakan orang-orang ketika mereka bertindak secara etis, tidak mungkin untuk menyelaraskan nilai-nilai sistem AI dengan nilai-nilai manusia.
  3. Untuk membangun sistem AI yang berperilaku etis, gagasan tentang nilai dan benar dan salah perlu dibuat cukup tepat sehingga dapat diterapkan dalam algoritme, tetapi presisi dan algoritme sangat kurang dalam pertimbangan etis saat ini.

Thagard memang menawarkan pendekatan untuk mengatasi tantangan tersebut, katanya, dan merujuk bukunya, Filsafat Alam: Dari Otak Sosial ke Pengetahuan, Realitas, Moralitas, dan Kecantikan. Namun, dalam artikelnya, dia tidak menawarkan solusi yang secara khusus membahas pemrograman mobil tanpa pengemudi.

Mobil yang Mengemudi Sendiri dan Masalah Troli

Idealnya, pengemudi menghindari memukul apa pun atau siapa pun. Tetapi adalah mungkin untuk menemukan diri sendiri dalam situasi di mana tidak mungkin untuk menghindari tabrakan, dan satu-satunya pilihan adalah orang atau orang mana yang akan dipukul.

Dilema etika inilah yang dikenal sebagai Masalah Troli, yang, seperti troli itu sendiri, sudah ada sejak lebih dari seabad. Biasanya disajikan sebagai berikut:

Anda melihat troli pelarian bergerak menuju lima orang yang terikat (atau lumpuh) tergeletak di rel. Anda berdiri di samping tuas yang mengontrol sakelar. Jika Anda menarik tuas, troli akan dialihkan ke jalur samping, dan lima orang di jalur utama akan diselamatkan. Namun, ada satu orang terbaring di jalur samping.

Anda memiliki dua pilihan:

  1. Tidak melakukan apa-apa dan membiarkan troli membunuh lima orang di jalur utama;
  2. Tarik tuas, alihkan troli ke jalur samping yang akan membunuh satu orang.

Tentu saja, tidak ada pilihan yang bagus di sini. Pertanyaannya adalah mana yang lebih kecil dari dua pilihan buruk. Dilema semacam inilah yang dihadirkan Green Goblin kepada Spiderman di film 2002, berusaha memaksanya untuk memilih antara menyelamatkan kereta gantung yang penuh dengan anak-anak atau wanita yang dicintainya:

Menjadi pahlawan super, Spiderman dapat menggunakan kemampuan dan kekuatan pemintalan webnya untuk menyelamatkan keduanya. Tetapi kadang-kadang bahkan pahlawan super harus membuat pilihan yang tragis, seperti yang terjadi di film 2008Kesatria Kegelapan di mana pilihan Batman adalah meninggalkan wanita yang dicintainya di gedung yang meledak.

Jadi, bahkan mereka yang memiliki kemampuan superior tidak selalu dapat menyelamatkan semua orang, dan situasi yang sama dapat diterapkan pada mobil yang mendukung AI.

Pertanyaannya kemudian adalah: Kode etik manakah yang kita terapkan untuk memprogram mereka untuk membuat pilihan seperti itu?

Apa yang harus dilakukan mobil self-driving?

MIT Technology Review menarik perhatian beberapa peneliti yang bekerja dalam merumuskan jawaban beberapa tahun yang lalu di Bagaimana Membantu Mobil yang Mengemudi Sendiri Membuat Keputusan yang Etis. Di antara para peneliti di lapangan adalah Chris Gerdes, seorang profesor di Universitas Stanford yang telah menyelidiki "dilema etika yang mungkin muncul ketika kendaraan tanpa pengemudi diterapkan di dunia nyata."

Dia menawarkan pilihan yang lebih sederhana: menghadapi seorang anak yang berlari ke jalan, yang memaksa mobil untuk menabrak sesuatu tetapi memungkinkannya untuk memilih antara anak tersebut dan sebuah van di jalan. Bagi manusia seharusnya tidak ada pikiran bahwa melindungi anak lebih penting daripada melindungi mobil van atau mobil otonom itu sendiri.

Tapi apa yang akan AI pikirkan? Dan bagaimana dengan penumpang di dalam kendaraan yang mungkin mengalami cedera akibat tabrakan semacam itu?

Gerdes mengamati, "Ini adalah keputusan yang sangat sulit yang dihadapi setiap hari oleh mereka yang merancang algoritme kontrol untuk kendaraan otomatis.”

Artikel tersebut juga mengutip Adriano Alessandrini, seorang peneliti yang mengerjakan kendaraan otomatis di Universitas de Roma La Sapienza, di Italia yang telah menjabat sebagai kepala bagian Italia dari proyek CityMobil2 yang berbasis di Eropa untuk menguji kendaraan angkutan otomatis. Lihat videonya di bawah ini:

Dia merangkum masalah Troli untuk pengemudi dan mobil yang mengemudi sendiri dalam ringkasan ini:

“Anda mungkin melihat sesuatu di jalur Anda, dan Anda memutuskan untuk berpindah jalur, dan saat Anda melakukannya, ada hal lain di jalur itu. Jadi ini adalah dilema etika. "

Pakar terkemuka lainnya di bidang ini adalah Patrick Lin, seorang profesor filsafat di Cal Poly, yang pernah bekerja dengan Geerdes. TED-Ed karya Lin membahas masalah etika dalam memprogram mobil self-driving untuk membuat keputusan hidup atau mati, disajikan sebagai eksperimen pemikiran dalam video ini:

Jika kami mengemudikan kotak itu di dalam mobil dalam mode manual, cara apa pun kami bereaksi akan dipahami sebagai reaksi, bukan keputusan yang disengaja, "kata Lin dalam video tersebut. Oleh karena itu, itu akan dipahami sebagai" an gerakan panik instingtual tanpa pemikiran ke depan atau kedengkian. "

Kemungkinan kematian yang sangat nyata terjadi bukan sebagai akibat dari kerusakan tetapi sebagai akibat dari mobil-mobil yang mengikuti program mereka adalah hal yang membuat sangat penting untuk memikirkan terlebih dahulu tentang bagaimana menangani apa yang digambarkan Lin sebagai "semacam algoritma penargetan."

Dia menjelaskan bahwa program semacam itu akan "secara sistematis mendukung atau mendiskriminasi jenis objek tertentu untuk ditabrak."

Akibatnya, mereka yang berada di "kendaraan target akan mengalami konsekuensi negatif dari algoritme ini bukan karena kesalahan mereka sendiri."

Dia tidak menawarkan solusi untuk masalah ini tetapi ini adalah peringatan bahwa kita harus memikirkan bagaimana kita akan menanganinya:

"Mengenali belokan moral ini sekarang akan membantu kita melakukan manuver di jalan etika teknologi yang asing, dan memungkinkan kita untuk berlayar dengan percaya diri dan hati-hati ke masa depan baru kita yang berani."

Itu kemungkinan akan membuktikan tantangan yang lebih besar untuk dinavigasi daripada jalan yang harus dilalui kendaraan otonom.


Tonton videonya: Mobil Otonom Masa Depan Mampu Antisipasi Kecelakaan (Desember 2021).