โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ยานยนต์

GWM ดึงเทคโนโลยี AI พัฒนายานยนต์สมัยใหม่ เป้าหมาย Safety Efficiency Experience

ฐานเศรษฐกิจ

อัพเดต 29 มิ.ย. 2568 เวลา 01.34 น. • เผยแพร่ 29 มิ.ย. 2568 เวลา 08.29 น.

ค่ายจีน GWM ร่วมแสดงวิสัยทัศน์ในงาน Automotive Summit 2025 งานสัมนาวิชาการด้านยานยนต์ ที่จัดระหว่างวันที่ 18 - 19 มิถุนายน ที่ผ่านมา โดย เวย์น โจว กรรมการผู้จัดการ เกรท วอลล์ มอเตอร์ ประเทศไทย บรรยายในหัวข้อ AI in Autonomous Driving - How AI work in ADAS/Autonomous Vehicle

นายเวย์น โจว ระบุว่า GWM เชื่อมั่นว่าอนาคตของการขับขี่จะถูกขับเคลื่อนด้วยเทคโนโลยีอัจฉริยะที่เข้าใจผู้ใช้งานอย่างแท้จริง เราจึงให้ความสำคัญสูงสุดกับการพัฒนาเทคโนโลยีขับขี่อัตโนมัติ ด้วยการผสาน AI เข้ากับระบบความปลอดภัยและการตัดสินใจของรถทั้งในรูปแบบของโมเดล SEE (Safety, Efficiency, Experience) และเทคโนโลยี ASL (Agent of Space & Language)

ปัจจุบัน อุตสาหกรรมยานยนต์ยังคงใช้ “สถาปัตยกรรมแบบ End-to-End เชิงโมดูลาร์” ซึ่งแบ่งกระบวนการทำงาน เช่น การรับรู้ ตัดสินใจ และควบคุม ออกเป็นส่วนๆ โดย AI จะเข้ามาช่วยในแต่ละขั้นตอน จุดเด่นคือความยืดหยุ่นและสามารถให้มนุษย์ควบคุมร่วมได้ แต่ข้อจำกัดคือแต่ละส่วนแยกกัน ทำให้เกิดความคลาดเคลื่อนในการสื่อสารภายในระบบ เพื่อแก้ปัญหานี้ GWM จึงเกิดแนวคิด “Full End-to-End” ที่รวมทุกกระบวนการไว้ในโมเดล AI เดียว

แม้จะทันสมัยและคิดตัดสินใจเองได้ทั้งหมด แต่ยังมีข้อท้าทายด้านความปลอดภัย และไม่สามารถควบคุมจากมนุษย์ได้ GWM จึงได้พัฒนาโมเดล SEE (Safety, Efficiency, Experience) โมเดลขนาดใหญ่ที่รวมข้อดีของทั้งสองระบบเข้าด้วยกัน โดยระบบจะรับรู้ วิเคราะห์ และควบคุมได้แม่นยำในหนึ่งเดียว พร้อมเปิดให้มนุษย์ควบคุมบางสถานการณ์เพื่อความปลอดภัยสูงสุด

GWM นำโมเดล SEE มาติดตั้งในรถ MPV ระดับเรือธงอย่าง GWM WEY 80 ในประเทศจีน โดย SEE ถูกพัฒนาให้ทำงานอยู่บนแพลตฟอร์ม Coffee Pilot Ultra ผสานเซ็นเซอร์อัจฉริยะ 27 ตัว และชิป NVIDIA Orin-X เพื่อประมวลผลข้อมูลรอบทิศทางอย่างแม่นยำ พร้อมรองรับการตัดสินใจแบบเรียลไทม์ผ่านเทคโนโลยี End-to-End ที่สามารถรวมข้อมูลจากเสียง ภาพ ข้อความ และการสัมผัสเข้าด้วยกัน

ในส่วนเทคโนโลยี ASL (Agent of Space & Language) กำลังอยู่ระหว่างการพัฒนา เป็นโมเดล AI ที่ถูกออกแบบให้สามารถสื่อสารกับผู้ขับขี่ผ่านภาษามนุษย์โดยตรง พร้อมทั้งวิเคราะห์ข้อมูลจากสามแหล่งสำคัญ ได้แก่ ภาพ 3 มิติจากกล้องรอบตัวรถ ระบบ LiDAR และเรดาร์ มีความสามารถในการเรียนรู้ วิเคราะห์ และปรับตัวได้อย่างแม่นยำ

“ปี 2025 จะเป็นหมุดหมายสำคัญของการเปลี่ยนผ่านสู่ยุคใหม่ของ AI และในอนาคต ASL จะไม่ได้เป็นเพียงเทคโนโลยี แต่จะกลายเป็นเพื่อนร่วมทางที่เข้าใจผู้ขับขี่อย่างแท้จริง” นายเวย์น โจว กล่าว

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...