โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

ดร.เอ้ เผย เหตุใด “DeepSeek AI” จากจีน ถึงสามารถเขย่าวงการเทคโนโลยี

WeR NEWS

เผยแพร่ 04 ก.พ. เวลา 11.03 น.

วันที่ 4 ก.พ. 68 นายสุชัชวีร์ สุวรรณสวัสดิ์ รองหัวหน้าพรรคประชาธิปัตย์ โพสต์เฟซบุ๊ก ถึงประเด็นของแอปพลิเคชันที่กำลังโด่งดัง อย่าง DeepSeek AI โดยระบุว่า "DeepSeek AI กระบี่อยู่ที่ใจ" ทำไม AI จีนถึงเก่งได้ แล้วไทยจะอยู่อย่างไร

"ความมหัศจรรย์" และ "ความน่าสงสัย" ของ "แฟลตฟอร์ม AI" สะท้านโลก "DeepSeek" จากแดนมังกร คืออะไร ผมมีคำตอบ พยายามอธิบายเรื่อง "ยากมาก" แบบง่าย ๆ ครับ

การพัฒนา AI ระดับสูง จำเป็นต้องใช้ปัจจัย 3 ด้าน และทำไม "DeepSeek" ถึง "มหัศจรรย์" ปนความ "น่าสงสัย"

  • "พลังการคำนวน" จาก "ฮาร์ดแวร์" เครื่องซุปเปอร์คอมพิวเตอร์ AI ซึ่ง "Nvidia" คือ ผู้นำในการผลิต "GPU" หรือ หน่วยประมวลผลข้อมูล ยิ่งมี GPU เยอะ ก็ยิ่งมี "ประสิทธิภาพ" หรือ "ความเร็ว" ในการคำนวนมากยิ่งขึ้นตาม

มักใช้หน่วย "ความเร็ว PetaFLOPS (PFLOPS)" ซึ่งเป็นหน่วยวัดประสิทธิภาพของการคำนวณ โดย 1 PFLOPS = 1,000 ล้านล้าน (10¹⁵) เลขทศนิยมต่อวินาที

ปัจจุบัน "อีลอน มัสก์" กำลังจะติดตั้งซุปเปอร์คอมพิวเตอร์ AI ของบริษัท xAI ที่รัฐเทนเนซี โดยซื้อ GPU รุ่นล่าสุด "ทันสมัยสุด" B200 จาก Nvidia ของ "เจนเซ่น หวง" ถึง 200,000 ชุด มากที่สุดในโลก โดยมีความเร็วในการคำนวน หลายแสน PetaFLOPS คือ "โคตรเร็ว"

แต่ "DeepSeek" ใช้ "ฮาร์ดแวร์" GPU รุ่นเก่า H800 ของ Nvidia เพียง 2,000 ชุด แถมยัง "ถูกลดสเปค" เพราะโดนกีดกันจากรัฐบาลสหรัฐ ความเร็วน้อยกว่าเครื่องของ "อีลอน มัสก์" เป็นร้อยหรืออาจถึงพันเท่า

นี่จึงเป็น "ความมหัศจจรย์เรื่องแรก" ที่ "ค่าย AI จีน" ใช้ทรัพยากรน้อยกว่านับร้อยเท่า เมื่อเปรียบเทียบกับ "ค่าย AI อเมริกัน"

  • "โมเดล" หรือ "ซอฟต์แวร์" ที่ใช้เป็นชุดคำสั่งการคำนวน AI มีความสำคัญมาก เพราะยิ่งมีอัลกอรึทึมที่มี "ตัวแปร" เยอะก็ครอบคลุมการคำนวนข้อมูลที่ "ละเอียด" ได้มากกว่า

โมเดลที่นิยมสำหรับการคำนวน Generative AI ที่เราใช้กันอยู่หรือที่เรียกกันว่า LLM (Large Language Model) หรือ GPT (Generative Pre-trained Transformer) คือ โมเดลปัญญาประดิษฐ์ขนาดใหญ่มาก ที่ได้รับการฝึกฝนบนข้อมูลข้อความจำนวนมหาศาล เพื่อตอบสนองข้อความ ได้อย่างซับซ้อนและเป็นธรรมชาติ

"DeepSeek" เป็น LLM ที่มีตัวแปรมากถึง "685,000 ล้าน!" ตัวแปร ซึ่งมากกว่าตัวแปรของ LLM Opensource ตัวอื่น แต่ที่แตกต่างคือ DeepSeek เป็นโมเดลรุ่นแรกที่ฝึกด้วย 8-bit floating point (FP8) ที่ช่วยลดปริมาณการใช้ GPU แต่ยังสามารถมีตัวแปรจำนวนมาก ในขณะที่โมเดลก่อนหน้านี้ใช้ FP16 ซึ่งทำให้ต้องใช้ GPU ที่มีหน่วยความจำสูงกว่า DeepSeek กว่า 2 เท่า

นี่คือ "ความมหัศจรรย์เรื่องที่สอง" ที่ทำให้ "DeepSeek" มีประสิทธิภาพสูงในต้นทุนที่ต่ำกว่าค่ายอื่น

  • "ข้อมูลขนาดมหึมา" หรือ Big Data ให้อัลกอรึทึม AI ได้ "เรียนรู้" เพื่อสร้างความฉลาดล้ำเมื่อถูกใช้งาน ซึ่งการได้มาของข้อมูลขนาดมหึมานี้ เป็นความ "น่าสงสัย" ในตัว "DeepSeek" และ แพลตฟอร์ม AI แทบทุกสำนัก เพราะแหล่งข้อมูลมีทั้งจากข้อมูลสาธารณะ ข้อมูลเฉพาะ ข้อมูลบุคคคล ข้อมูลธุรกิจ ข้อมูลมีลิขสิทธิ์ และข้อมูลที่ AI สร้างเอง ซึ่งมีผลต่อประสิทธิภาพการคำนวนทั้งสิ้น

นี่คือ "ความมหัศจรรย์เรื่องที่สาม" ว่า "DeepSeek" ได้ข้อมูลขนาดมหึมานี้ ในเวลาสั้นๆ จากแหล่งใด

ดังนั้น "การไขความลับ" แห่งความสำเร็จของ "DeepSeek" จึงยังคงเป็นปริศนา และยังมีเรื่อง "งบประมาณ" ที่ใช้ซึ่งน้อยมากจนเหลือเชื่อ

กระนั้นต้อง "ยอมรับ" ชื่นชมในความสามารถและความมุ่งมั่นของ "คนจีน" ที่ไม่ยอมแพ้ต่อข้อจำกัด #จะทำก็ทำได้ แล้ว "คนไทย" เราจะสิโรราบต่อ "ชะตา" เชียวหรือ ทิ้งท้ายไว้ให้คิดนะครับ

ศาสตราจารย์ ดร.สุชัชวีร์ สุวรรณสวัสดิ์

นายกสภามหาวิทยาลัย CMKL

มหาวิทยาลัย AI แห่งแรกของไทย

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0