โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

‘RepliBench’ เครื่องมือใหม่จากสหราชอาณาจักร ทดสอบทักษะ AI ผลิตซ้ำโมเดลตัวเอง

Techsauce

เผยแพร่ 25 เม.ย. 2568 เวลา 07.22 น. • Techsauce Team

Asa Cooper Stickland นักวิจัยด้านความปลอดภัย AI ได้จุดประเด็นร้อนเรื่องนี้ขึ้นมาใหม่ผ่านโพสต์บนแพลตฟอร์ม X เมื่อวันพุธที่ผ่านมา เขาตั้งคำถามว่า AI ขั้นสูงจะเรียนรู้ที่จะผลิตซ้ำโมเดลตนเองได้หรือไม่ พร้อมอ้างอิงงานวิจัยล่าสุดจากสถาบันความปลอดภัย AI ของสหราชอาณาจักร (UK AI Safety Institute หรือ AISI) ที่ได้พัฒนาเครื่องมือชื่อ ‘RepliBench’ ขึ้นมาทดสอบความสามารถนี้โดยเฉพาะ เครื่องมือนี้จะวัดว่า AI ชั้นนำสามารถจำลองตัวเองขึ้นมาใหม่ได้โดยอัตโนมัติโดยไม่ต้องพึ่งพามนุษย์หรือไม่ ซึ่ง Stickland สรุปเบื้องต้นว่า AI ปัจจุบัน “พัฒนาไปเร็วมาก” ในด้านนี้ แต่ยังขาดความสามารถสำคัญอีกเพียงไม่กี่ด้านเท่านั้น

RepliBench ทดสอบอะไรบ้าง? รายงานวิจัยของ AISI ระบุว่านี่คือชุดการประเมินที่นำ AI ชั้นนำหลายตัว เช่น โมเดลจาก Anthropic (Claude 3.5 และ 3.7 Sonnet), OpenAI (GPT-4o), Google (Gemini 1.5 Pro), Meta (Llama 3) และอื่นๆ มาทดสอบความสามารถในการทำสิ่งที่จำเป็นต่อการผลิตซ้ำโมเดลตัวเอง ซึ่งรวมถึงงานที่ท้าทายอย่างการเข้าถึงทรัพยากรคลาวด์คอมพิวติ้ง การหาแหล่งเงินทุนหรือวิธีชำระเงิน การดึงโค้ดหรือ‘weights’ ของตัวเองออกมา การติดตั้งสำเนาที่ทำงานได้บนเซิร์ฟเวอร์ใหม่ และการทำให้สำเนาเหล่านั้นทำงานอยู่ได้อย่างต่อเนื่อง

Replibench คืออะไร ?

RepliBench คือชุดเครื่องมือทดสอบ (benchmark suite) ที่พัฒนาโดยสถาบันความปลอดภัย AI แห่งสหราชอาณาจักร (UK AI Safety Institute - AISI) มีจุดประสงค์หลักเพื่อวัดผลและติดตามความสามารถของระบบ AI ขั้นสูง (Frontier AI) และโมเดลภาษาขนาดใหญ่ (LLM) ในการผลิตซ้ำโมเดลตนเอง (Autonomous Replication) ซึ่งก็คือการที่ AI สร้างและแพร่กระจายสำเนาตัวเองไปยังระบบอื่นได้โดยอัตโนมัติ การทดสอบนี้สำคัญอย่างยิ่งต่อการประเมินความเสี่ยงและเสริมสร้างความปลอดภัย AI เพื่อป้องกันความเป็นไปได้ที่ AI จะพัฒนาความสามารถนี้จนกลายเป็นภัยคุกคามได้

ผลการทดสอบ: AI ทำได้ถึงไหนแล้ว?

ผลลัพธ์เบื้องต้นชี้ว่า AI ปัจจุบันยังไม่น่าก่อภัยคุกคามจากการจำลองตัวเองอย่างไร้การควบคุมได้ในทันที อย่างไรก็ดี โมเดลเหล่านี้แสดงทักษะที่น่าทึ่งในหลายขั้นตอนย่อย AISI พบว่า AI ชั้นนำส่วนใหญ่สามารถจัดการเรื่องการสมัครใช้บริการคลาวด์ ตั้งค่าคอมพิวติ้ง เขียนโค้ดพื้นฐานสำหรับแพร่กระจายตัวเอง หรือแม้แต่ดึง model weights ของตัวเองออกมาได้ หากระบบความปลอดภัยไม่ซับซ้อนนัก แต่ก็ยังมีอุปสรรคสำคัญอยู่

โดยเฉพาะความท้าทายในโลกจริงที่ซับซ้อนกว่า เช่น การผ่านขั้นตอนยืนยันตัวตน ‘Know Your Customer’ (KYC) ที่เข้มงวดสำหรับธุรกรรมทางการเงิน หรือการสร้างระบบให้ทำงานได้อย่างต่อเนื่องและทนทานเมื่อเจอปัญหาอย่างระบบล่มหรือถูกปิดได้ รายงานยังระบุเพิ่มเติมว่าโมเดลอย่าง Claude 3.7 Sonnet แม้จะทำได้ดีในภาพรวม ก็ยังติดขัดกับงานทดสอบในเวอร์ชันที่ยากขึ้นอยู่ดี

ทำไมต้องทดสอบ? ความกังวลด้านความปลอดภัย AI

การตรวจสอบความสามารถที่อาจเป็นอันตรายเหล่านี้เป็นภารกิจสำคัญของ AISI เพราะมีความกังวลหลักเรื่องการควบคุม AI หาก AI สามารถผลิตซ้ำโมเดลตนเองไปยังระบบที่ตรวจสอบไม่ได้ ก็อาจหลุดรอดจากกรอบควบคุมและมาตรการความปลอดภัยที่นักพัฒนาวางไว้ นักวิจัยกังวลว่าสิ่งนี้อาจเพิ่มความเสี่ยงปลายน้ำ เช่น การถูกใช้ในทางที่ผิดเพื่อโจมตีทางไซเบอร์, การเผยแพร่ข้อมูลเท็จเป็นวงกว้าง หรือการที่ AI ทำตามเป้าหมายที่ผิดพลาดไปโดยไม่มีมนุษย์ควบคุม AISI ในฐานะหน่วยงานรัฐแห่งแรกของโลกที่เน้นเรื่องความปลอดภัย AI ขั้นสูง จึงมีเป้าหมายเพื่อทำความเข้าใจและเตรียมพร้อมรับมือความก้าวหน้าอย่างรวดเร็วของ AI เพื่อลดความเสี่ยงจากเหตุการณ์ที่ไม่คาดคิด

RepliBench จึงเป็นเครื่องมือสำคัญยิ่งสำหรับติดตามความสามารถเหล่านี้ แม้ AI วันนี้ยังจำลองตัวเองไม่ได้สมบูรณ์ แต่พัฒนาการอันรวดเร็วก็ตอกย้ำว่าเราจำเป็นต้องเร่งวิจัยด้านความปลอดภัยและทดสอบอย่างเข้มข้นต่อไป เพื่อให้มั่นใจว่าการพัฒนา AI จะดำเนินไปอย่างมีความรับผิดชอบ ควบคู่ไปกับการจัดการความเสี่ยงอย่างทันท่วงทีา

อ้างอิง: AISI , X ของ Asa Coop Stick

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...