Miscellaneous

Model Pelatihan Baru Membantu Mobil Otonom Melihat Titik Buta AI

Model Pelatihan Baru Membantu Mobil Otonom Melihat Titik Buta AI

Sejak diperkenalkan beberapa tahun yang lalu, kendaraan otonom perlahan-lahan memasuki jalan dalam jumlah yang semakin besar, tetapi publik tetap mewaspadai mereka meskipun keuntungan keselamatan yang tak terbantahkan yang mereka tawarkan kepada publik.

Perusahaan kendaraan otonom sangat menyadari skeptisisme masyarakat. Setiap kecelakaan membuat lebih sulit untuk mendapatkan kepercayaan publik dan ketakutannya adalah jika perusahaan tidak mengelola peluncuran kendaraan otonom dengan benar, reaksi balik mungkin menutup pintu pada teknologi mobil self-driving seperti cara kecelakaan Three Mile Island mematikan pertumbuhan pembangkit listrik tenaga nuklir di Amerika Serikat pada tahun 1970-an.

Membuat kendaraan otonom lebih aman daripada yang sudah mereka lakukan berarti mengidentifikasi kasus-kasus yang mungkin tidak pernah terpikirkan oleh programmer dan bahwa AI akan gagal merespons dengan tepat, tetapi pengemudi manusia akan memahami secara intuitif sebagai situasi yang berpotensi berbahaya. Penelitian baru dari upaya bersama oleh MIT dan Microsoft dapat membantu menjembatani kesenjangan antara pembelajaran mesin dan intuisi manusia untuk menghasilkan kendaraan otonom yang paling aman.

Meyakinkan Masyarakat yang Waspada

Jika keragu-raguan publik bukan menjadi faktor, setiap mobil di jalan akan diganti dengan kendaraan otonom dalam beberapa tahun. Setiap truk akan sepenuhnya otonom sekarang dan tidak akan ada pengemudi Uber atau Lyft, hanya taksi antar-jemput yang akan Anda pesan melalui telepon dan akan berhenti dengan mulus ke tepi jalan dalam beberapa menit tanpa terlihat pengemudi.

Kecelakaan akan terjadi dan orang akan tetap meninggal sebagai akibatnya, tetapi menurut beberapa perkiraan, 90% kematian lalu lintas di seluruh dunia dapat dicegah dengan kendaraan otonom. Mobil otonom mungkin perlu diisi ulang, tetapi mereka tidak perlu tidur, istirahat, dan mereka hanya memikirkan pelaksanaan instruksi dalam program mereka.

Bagi perusahaan yang mengandalkan transportasi untuk memindahkan barang dan orang dari titik A ke titik B, mengganti pengemudi dengan mobil tanpa pengemudi akan menghemat tenaga kerja, asuransi, dan biaya tambahan lainnya yang timbul karena tenaga kerja manusia yang besar.

Penghematan biaya dan keuntungan keamanan terlalu besar untuk membuat manusia tetap berada di jalan dan di belakang kemudi.

Kita tertidur, kita mengemudi dalam keadaan mabuk, perhatian kita terganggu, atau kita benar-benar buruk dalam mengemudi, dan konsekuensinya mahal dan mematikan. Sedikit lebih dari satu juta orang meninggal setiap tahun di jalan di seluruh dunia dan pindah ke angkutan truk komersial otonom saja dapat memotong setengah biaya transportasi untuk beberapa perusahaan.

Namun, publik tidak yakin dan semakin skeptis dengan setiap laporan kecelakaan yang melibatkan mobil self-driving.

Kasus Tepi: The Achilles Heel of Self-Driving Cars?

Apakah adil atau tidak, beban untuk mendemonstrasikan keselamatan kendaraan otonom ada pada mereka yang menganjurkan teknologi kendaraan tanpa pengemudi. Untuk melakukan ini, perusahaan harus bekerja untuk mengidentifikasi dan menangani kasus-kasus tepi yang dapat menyebabkan kecelakaan tingkat tinggi yang mengurangi kepercayaan publik pada teknologi yang sebaliknya aman.

Apa yang terjadi jika sebuah kendaraan melaju di jalan dan melihat tanda berhenti yang tahan cuaca, bengkok, cacat, dan pudar? Meskipun situasi yang jelas jarang terjadi — departemen transportasi kemungkinan besar akan menghapus tanda seperti itu jauh sebelum mencapai keadaan yang mengerikan ini — kasus-kasus tepi adalah situasi seperti ini.

Kasus tepi adalah peristiwa dengan probabilitas rendah yang seharusnya tidak terjadi tetapi terjadi di dunia nyata, persis jenis kasus yang mungkin tidak dipertimbangkan oleh pemrogram dan proses pembelajaran mesin.

Dalam skenario dunia nyata, kendaraan otonom mungkin mendeteksi rambu tersebut dan tidak tahu bahwa itu adalah rambu berhenti. Perusahaan tidak memperlakukannya seperti itu dan dapat memutuskan untuk melanjutkan melalui persimpangan dengan kecepatan dan menyebabkan kecelakaan.

Seorang pengemudi manusia mungkin mengalami kesulitan mengidentifikasi rambu berhenti juga, tetapi itu jauh lebih kecil kemungkinannya untuk pengemudi berpengalaman. Kami tahu apa itu rambu berhenti dan jika ada selain reruntuhan total, kami akan tahu untuk berhenti di persimpangan daripada terus melewatinya.

Situasi seperti ini persis seperti yang diidentifikasi dan dipecahkan oleh para peneliti di MIT dan Microsoft, yang dapat meningkatkan keselamatan kendaraan otonom dan, diharapkan, mengurangi jenis kecelakaan yang mungkin memperlambat atau mencegah adopsi kendaraan otonom di jalan kita.

Pemodelan di Tepi

Dalam dua makalah yang dipresentasikan pada konferensi Agen Otonom dan Sistem Multiagen tahun lalu dan konferensi Asosiasi untuk Kemajuan Kecerdasan Buatan yang akan datang, para peneliti menjelaskan model baru untuk melatih sistem otonom seperti mobil tanpa pengemudi yang menggunakan masukan manusia untuk mengidentifikasi dan memperbaiki “ titik buta ”dalam sistem AI.

Para peneliti menjalankan AI melalui simulasi latihan seperti yang dilakukan sistem tradisional, tetapi dalam kasus ini, manusia mengamati tindakan mesin dan mengidentifikasi kapan mesin akan membuat atau telah melakukan kesalahan.

Para peneliti kemudian mengambil data pelatihan mesin dan mensintesisnya dengan masukan pengamat manusia dan memasukkannya ke dalam sistem pembelajaran mesin. Sistem ini kemudian akan membuat model yang dapat digunakan peneliti untuk mengidentifikasi situasi di mana AI kehilangan informasi penting tentang bagaimana seharusnya berperilaku, terutama dalam kasus edge.

“Model ini membantu sistem otonom lebih mengetahui apa yang tidak mereka ketahui,” menurut Ramya Ramakrishnan, seorang mahasiswa pascasarjana di Laboratorium Ilmu Komputer dan Kecerdasan Buatan di MIT dan penulis utama studi tersebut.

“Sering kali, ketika sistem ini diterapkan, simulasi terlatih mereka tidak cocok dengan pengaturan dunia nyata [dan] mereka dapat membuat kesalahan, seperti mengalami kecelakaan. Idenya adalah menggunakan manusia untuk menjembatani kesenjangan antara simulasi dan dunia nyata, dengan cara yang aman, sehingga kami dapat mengurangi beberapa kesalahan tersebut. ”

Masalah muncul ketika suatu situasi terjadi, seperti tanda berhenti yang terdistorsi, di mana sebagian besar kasus AI telah dilatih tidak mencerminkan kondisi dunia nyata yang seharusnya dilatih untuk dikenali. Dalam hal ini, telah dilatih bahwa rambu berhenti memiliki bentuk, warna tertentu, dll. Ia bahkan bisa membuat daftar bentuk yang bisa menjadi rambu berhenti dan akan tahu berhenti untuk itu, tetapi jika tidak dapat mengidentifikasi rambu berhenti benar, situasinya bisa berakhir dengan bencana.

“[B] karena tindakan yang tidak dapat diterima jauh lebih jarang daripada tindakan yang dapat diterima, sistem pada akhirnya akan belajar memprediksi semua situasi sebagai aman, yang bisa sangat berbahaya," kata Ramakrishnan.

Memenuhi Standar Tertinggi untuk Keselamatan

Dengan menunjukkan kepada para peneliti di mana AI memiliki data yang tidak lengkap, sistem otonom dapat dibuat lebih aman di tepi tempat kecelakaan profil tinggi dapat terjadi. Jika mereka dapat melakukan ini, kita mungkin sampai pada titik di mana kepercayaan publik pada sistem otonom dapat mulai tumbuh dan peluncuran kendaraan otonom dapat dimulai dengan sungguh-sungguh, sehingga membuat kita semua lebih aman sebagai hasilnya.


Tonton videonya: Learn Spanish: 600 Spanish Phrases for Beginners (Oktober 2021).