Bagaimana AI Membuat Mobil Self-Driving Lebih Aman

Bagaimana AI Membuat Mobil Self-Driving Lebih Aman

Bagaimana AI Membuat Mobil Self-Driving Lebih Aman – Ada banyak bahaya setiap kali mobil atau pesawat tanpa pengemudi lepas landas secara mandiri. Para insinyur sangat percaya pada sistem cerdas yang dapat melihat dan merasakan dunia serta menghindari hampir semua bahaya yang mungkin dihadapi oleh mobil tanpa pengemudi.

Bagaimana AI Membuat Mobil Self-Driving Lebih Aman

Bagaimana AI Membuat Mobil Self-Driving Lebih Aman

rubiconraceteam – “Tantangan terbesar kami dalam bidang ini adalah bagaimana kami memastikan bahwa fungsi sistem AI yang luar biasa ini (mobil tanpa awak dan kendaraan udara tak berawak) aman sebelum kami menerapkannya di tempat yang membahayakan nyawa manusia? “Apakah kami menjamin bahwa sistem ini akan berhasil? ?” kata peneliti postdoctoral Anthony Corso. di bidang kedirgantaraan dan direktur eksekutif Pusat Keamanan AI Stanford.

“Sistemnya sendiri sangat kompleks, namun lingkungan di mana kita diminta untuk bekerja juga sangat kompleks,” kata Corso. “Misalnya, pembelajaran mesin telah memungkinkan untuk menggerakkan robot di pusat kota San Francisco, namun ini adalah masalah komputasi besar yang semakin sulit untuk diverifikasi.”

Meskipun pengujian jalan raya merupakan faktor penting untuk keselamatan, pengujian jalan raya biasanya hanya dilakukan pada akhir siklus desain dan menimbulkan risiko yang sama terhadap kehidupan manusia yang ingin dihindari oleh para peneliti. Tidak ada insinyur yang mau bertanggung jawab atas pengujian jalan raya, mengorbankan nyawa, dan bahkan harta benda berharga untuk membuktikan bahwa teknologi itu aman.

Dengan mempertimbangkan tantangan dunia nyata ini, perancang mobil self-driving mengandalkan simulasi untuk menguji kemampuan mobil self-driving dalam menghindari bahaya. Tapi bisakah simulasi ini menjawab pertanyaan-pertanyaan ini? Dalam sebuah makalah yang diterbitkan dalam Journal of Artificial Intelligence Research, Corso dan rekan-rekannya di Universitas Stanford dan NASA menjelaskan bagaimana “algoritma validasi keamanan kotak hitam” ini memberikan gambaran umum. Mereka optimis bahwa simulasi suatu hari nanti akan mampu memberikan tingkat keamanan yang dibutuhkan, namun masih ada pekerjaan yang harus dilakukan. Evaluasi “kotak hitam”.

baca juga : Perkembangan Sepeda Motor Listrik di Masa Depan

Pengembang mobil self-driving, pesawat otonom, dan kendaraan self-driving intensif komputasi lainnya mengandalkan apa yang disebut aplikasi verifikasi kotak hitam. Algoritme kotak hitam berbeda dari saudaranya, metode kotak putih. Verifikasi kotak putih berkaitan dengan apa yang disebut “verifikasi formal” dari keamanan suatu sistem. Sumber kesalahan yang potensial tidak hanya dapat diidentifikasi, namun idealnya tidak adanya kesalahan juga akan dibuktikan.

Namun, standar yang lebih tinggi ini memerlukan komputasi yang intensif dan tidak dapat diterapkan pada masalah yang besar dan kompleks seperti mobil tanpa pengemudi. Ada terlalu banyak hal yang perlu dihitung untuk membangun tingkat kepercayaan diri yang memadai. Namun, pendekatan kotak hitam menjanjikan untuk mengatasi tantangan ini melalui pintasan komputasi.

Corso mengibaratkan ini seperti video game yang dimainkan secara terbalik, di mana algoritma pengujiannya adalah pemainnya dan kemenangan didefinisikan sebagai kegagalan, atau kecelakaan, namun tentu saja, simulasi yang tidak menimbulkan risiko terhadap nyawa atau harta benda. Hanya dengan mengetahui kapan dan mengapa sistem gagal, situasi seperti itu dapat diselesaikan dengan mekanisme keselamatan yang dipasang di kendaraan.

“Algoritma mengambil pendekatan sebaliknya dan mencoba menemukan kerentanan.” Harapan kami adalah kami tidak pernah mengalami kegagalan. “Semakin lama teknologi kotak hitam bekerja, mempertimbangkan skenario yang mungkin terjadi, dan upaya untuk menciptakan kerentanan namun gagal menemukannya, semakin besar keyakinan kita terhadap keamanan sistem secara keseluruhan,” kata Corso tentang filosofi yang mendasari bidang tersebut.

baca juga : Bagaimana Teknologi Cara Memengaruhi Pada Game

triangulasi
Untuk memastikan keamanan maksimum, algoritme validasi melakukan jenis triangulasi kesalahan. Pada tingkat tertinggi, algoritme validasi di industri yang paling menghindari risiko, seperti penerbangan, mencari kemungkinan kesalahan sistem. Ini adalah pendekatan yang disebut gangguan. “Penipu bertanya, “Dapatkah Anda menemukan contoh kesalahan sistem?” kata Corso.

Ini adalah batasan yang sengaja dibuat rendah untuk memberikan jaminan sebesar mungkin. Namun, ambang batas ini terlalu rendah untuk mobil self-driving. “Saat mobil self-driving melaju di lingkungan perkotaan, selalu ada potensi situasi patologis yang dapat berujung pada kecelakaan,” kata Corso. “Jadi kami menaikkan standarnya sedikit.”

Langkah selanjutnya adalah tim desain menemukan kesalahan yang paling mungkin terjadi untuk membuat sistem seaman mungkin. Langkah ketiga adalah memperkirakan kemungkinan berbagai bentuk kegagalan untuk menilai seberapa besar kemungkinan suatu hasil dibandingkan dengan hasil lainnya.

“Teknologi-teknologi ini dibangun satu sama lain untuk meningkatkan kepercayaan terhadap keamanan seluruh sistem,” kata Corso. Bertujuan untuk sistem yang lebih aman
Studi ini tidak selalu mengevaluasi alat-alat black box yang diselidiki, melainkan mengkaji bagaimana masing-masing alat mengatasi masalah, asumsi apa yang dibangun oleh perancang sistem ke dalam sistem mereka, dan bagaimana perancang sistem otonom. Kami membandingkan kekuatan dan kelemahan relatif dari masing-masing alat yang memungkinkan Anda untuk : dapat bekerja dengan baik. Anda dapat memilih pendekatan yang paling sesuai dengan kebutuhan Anda.

Namun, Corso menunjukkan bahwa dari sembilan sistem yang diuji saat ini, hanya dua yang menawarkan lebih dari sekadar verifikasi palsu, dan hanya satu yang menyediakan pengujian untuk kesalahan yang paling mungkin terjadi, dan menunjukkan bahwa hanya satu yang memberikan perkiraan probabilitas. Menurutnya, masih ada ruang untuk perbaikan.

Secara keseluruhan, Corso dan rekan-rekannya belum menyepakati opsi apa pun, namun ia melihat ke arah mana hal ini akan terjadi. Arah yang paling menarik, katanya, adalah “validasi konfigurasi”, di mana setiap komponen, seperti sistem pengenalan visual atau deteksi jarak, diuji secara individual untuk menyelidiki kegagalan di setiap komponen. Menurut Corso, mengetahui lebih banyak tentang bagaimana subkomponen gagal dapat meningkatkan kepercayaan terhadap keamanan sistem secara keseluruhan.

“Beberapa pendekatan yang kami sebutkan sudah menyentuh konsep ini, tapi menurut saya ini akan membutuhkan lebih banyak usaha,” kata Corso. Dalam keadaan saat ini, keseluruhan algoritma sistem tidak cukup untuk memberikan algoritma evaluasi formal. Persetujuan sewa