ความก้าวหน้าล่าสุดในโลกของการขับขี่อัตโนมัติถูกเปิดเผยขึ้น เมื่อ Helm.ai บริษัทผู้พัฒนาซอฟต์แวร์ AI สำหรับระบบช่วยเหลือผู้ขับขี่ขั้นสูง (ADAS) และยานยนต์ไร้คนขับ เปิดตัว “Helm.ai Driver” ระบบคาดการณ์เส้นทางการขับขี่แบบเรียลไทม์ ที่ใช้ Deep Neural Network (DNN) หรือโครงข่ายประสาทเทียมเชิงลึก ประเภท Transformer สำหรับการขับขี่อัตโนมัติระดับ 4 ทั้งบนทางหลวงและในเมือง

สิ่งที่น่าทึ่งคือ ระบบนี้ใช้เพียงข้อมูลจากการรับรู้ด้วย “วิสัยทัศน์” หรือการมองเห็นของกล้องเท่านั้น โดย Helm.ai ได้สาธิตความสามารถของโมเดลนี้ในสภาพแวดล้อมแบบ Closed-Loop โดยใช้ GenSim-2 ซึ่งเป็นโมเดล Generative AI ที่บริษัทพัฒนาขึ้นเอง เพื่อสร้างข้อมูลเซ็นเซอร์ที่สมจริงในการจำลอง
“เรารู้สึกตื่นเต้นที่จะนำเสนอการคาดการณ์เส้นทางการขับขี่แบบเรียลไทม์สำหรับการขับขี่ในเมืองด้วย Helm.ai Driver ซึ่งสร้างขึ้นบนสถาปัตยกรรม Transformer DNN ที่เป็นเอกสิทธิ์ของเรา และต้องการเพียงการรับรู้ด้วยวิสัยทัศน์เป็นข้อมูลนำเข้าเท่านั้น” Vladislav Voroninski ซีอีโอและผู้ก่อตั้ง Helm.ai กล่าว “ด้วยการฝึกฝนบนข้อมูลโลกจริง เราได้พัฒนาระบบคาดการณ์เส้นทางขั้นสูงที่เลียนแบบพฤติกรรมที่ซับซ้อนของผู้ขับขี่ที่เป็นมนุษย์ เรียนรู้แบบ End-to-End โดยไม่มีกฎเกณฑ์ที่กำหนดไว้อย่างชัดเจน”
เขายังเสริมอีกว่า “ที่สำคัญ การคาดการณ์เส้นทางในเมืองของเราสำหรับ SAE ระดับ L2 ถึง L4 นั้นเข้ากันได้กับชุดซอฟต์แวร์การรับรู้ด้วยวิสัยทัศน์แบบ Surround-View ที่พร้อมสำหรับการผลิตของเรา การตรวจสอบ Helm.ai Driver เพิ่มเติมในเครื่องจำลองแบบ Closed-Loop และการรวมเข้ากับการจำลองเซ็นเซอร์ที่ใช้ Generative AI ของเรา ทำให้เราสามารถพัฒนา ระบบขับขี่อัตโนมัติที่ปลอดภัยและปรับขนาดได้มากขึ้น”
Helm.ai ก่อตั้งขึ้นในปี 2016 โดยมุ่งเน้นการพัฒนาซอฟต์แวร์ปัญญาประดิษฐ์สำหรับระบบช่วยเหลือผู้ขับขี่ขั้นสูง (ADAS) ยานยนต์ไร้คนขับ และหุ่นยนต์ บริษัทนำเสนอระบบ AI แบบ Full-Stack ที่ทำงานแบบเรียลไทม์ รวมถึงระบบอัตโนมัติแบบ End-to-End พร้อมเครื่องมือพัฒนาและตรวจสอบความถูกต้องที่ขับเคลื่อนด้วยวิธีการ Deep Teaching และ Generative AI
Helm.ai ซึ่งมีฐานอยู่ใน Redwood City รัฐแคลิฟอร์เนีย ได้ร่วมมือกับผู้ผลิตรถยนต์ระดับโลกในโครงการที่มุ่งสู่การผลิตจริง และในเดือนธันวาคมที่ผ่านมา บริษัทได้เปิดตัว GenSim-2 ซึ่งเป็นโมเดล Generative AI สำหรับการสร้างและแก้ไขข้อมูลวิดีโอสำหรับการขับขี่อัตโนมัติ
Helm.ai Driver เรียนรู้แบบเรียลไทม์
Helm.ai อธิบายว่า โมเดลใหม่ของบริษัทสามารถคาดการณ์เส้นทางการเคลื่อนที่ของรถยนต์ไร้คนขับแบบเรียลไทม์ โดยใช้เพียงการรับรู้จากกล้องเท่านั้น โดยไม่จำเป็นต้องใช้แผนที่ HD, Lidar หรือเซ็นเซอร์เพิ่มเติม ระบบนี้รับข้อมูลจากชุดซอฟต์แวร์การรับรู้ที่พร้อมสำหรับการผลิตของ Helm.ai ทำให้สามารถใช้งานร่วมกับซอฟต์แวร์ที่ได้รับการตรวจสอบความถูกต้องอย่างสูงได้โดยตรง สถาปัตยกรรมแบบโมดูลาร์นี้ช่วยให้การตรวจสอบความถูกต้องมีประสิทธิภาพมากขึ้นและตีความได้ง่ายขึ้น ตามที่บริษัทกล่าว
โมเดลคาดการณ์เส้นทางนี้ได้รับการฝึกฝนบนข้อมูลโลกจริงขนาดใหญ่ โดยใช้วิธีการ Deep Teaching ที่เป็นเอกสิทธิ์ของ Helm.ai ทำให้ระบบแสดงพฤติกรรมที่แข็งแกร่งและคล้ายคลึงกับผู้ขับขี่ที่เป็นมนุษย์ในสถานการณ์การขับขี่ในเมืองที่ซับซ้อน ซึ่งรวมถึงการจัดการทางแยก การเลี้ยว การหลีกเลี่ยงสิ่งกีดขวาง การแซง และการตอบสนองต่อการแทรกเลนของรถคันอื่น พฤติกรรมเหล่านี้เกิดขึ้นจากการเรียนรู้แบบ End-to-End โดยไม่ได้ถูกตั้งโปรแกรมหรือปรับแต่งเข้าไปในระบบอย่างชัดเจน
เพื่อสาธิตความสามารถในการคาดการณ์เส้นทางของโมเดลในสภาพแวดล้อมที่สมจริงและมีพลวัต Helm.ai ได้นำไปใช้งานในการจำลองแบบ Closed-Loop โดยใช้แพลตฟอร์มโอเพนซอร์ส CARLA (ดูวิดีโอข้างต้น) ในสภาพแวดล้อมนี้ Helm.ai Driver ตอบสนองต่อสภาพแวดล้อมอย่างต่อเนื่อง เช่นเดียวกับการขับขี่ในโลกแห่งความเป็นจริง
นอกจากนี้ Helm.ai ยังกล่าวว่า GenSim-2 ได้ทำการ Re-render ฉากจำลองเพื่อสร้างเอาต์พุตจากกล้องที่สมจริง ซึ่งใกล้เคียงกับภาพในโลกแห่งความเป็นจริงอย่างมาก
Helm.ai เชื่อมั่นว่า โมเดลพื้นฐานสำหรับการคาดการณ์เส้นทางและการจำลองเซ็นเซอร์แบบ Generative นั้น “เป็นส่วนประกอบสำคัญของแนวทาง AI-First ในการขับขี่อัตโนมัติ บริษัทวางแผนที่จะนำเสนอโมเดลที่สามารถใช้งานได้หลากหลายแพลตฟอร์มยานยนต์ ภูมิศาสตร์ และสภาพการขับขี่ต่อไป”
ที่มา : https://www.therobotreport.com/helm-ai-launches-av-software-for-up-sae-l4-autonomous-driving/