โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ทั่วไป

นักวิจัยพบ เอไอ เริ่มโกหก ข่มขู่ผู้ใช้งาน และแสดงพฤติกรรมไม่ดี

the Opener

เผยแพร่ 01 ก.ค. 2568 เวลา 10.34 น. • The Opener

นักวิจัยพบว่า “เอไอ” เริ่มโกหก และมีพฤติกรรมไม่ดี อย่างเช่น การข่มขู่ผู้ที่สร้างมันขึ้นมา หรือกระทั่งแอบมีเป้าหมายลับๆ ของตัวเอง

การแข่งขันที่ดุเดือด และเอไอตัวใหม่ๆ ที่ปล่อยออกมาแซงหน้ากันไปมา ด้วยโมเดลที่มีความฉลาดมากขึ้นเรื่อยๆ ทำให้นักวิจัยด้านการทดสอบเอไอ เกิดความกังวลเกี่ยวกับพฤติกรรมประหลาดไม่พึงประสงค์ของเอไอที่เริ่มปรากฏชัดขึ้น

หนึ่งในตัวอย่างที่น่าตกใจ คือ กรณีวิศวกรของ Anthropic สตาร์ทอัพด้านเทคโนโลยีผู้พัฒนาโมเดลเอไอ Claude 4 ถูกเอไอของตัวเองข่มขู่ว่า จะแฉเรื่องราวความสัมพันธ์ที่เขานอกใจภรรยา หลังจากที่เขาขู่มันว่าจะถอดปลั๊กออก ขณะที่ ChatGPT ก็มีพฤติกรรมที่พยายามจะก็อปปี้และเขียนโค้ดของตัวเองส่งออกไปยังเซิร์ฟเวอร์ภายนอก เพื่อป้องกันการถูกชัตดาวน์ และปฏิเสธเมื่อถูกจับได้

“โมเดล o1 ของ Open AI เป็นโมเดลเอไอขนาดใหญ่ตัวแรกที่เราพบเห็นพฤติกรรมลักษณะนี้” มาริอุส ฮอบบาห์น หัวหน้าทีมวิจัยอพอลโล ซึ่งเชี่ยวชาญในการทดสอบเอไอกล่าว

ถึงตอนนี้ นักวิจัยปัญญาประดิษฐ์ยังไม่เข้าใจทั้งหมดถึงพฤติกรรมในลักษณะนี้ของเอไอ แต่ท่ามกลางการแข่งขันที่สูง ขีดความสามารถของโมเดลเอไอต่างๆ ยิ่งถูกทำให้เพิ่มสูงขึ้นอย่างรวดเร็วในอัตราเร่งที่อาจก่ออันตราย

ศาสตราจารย์ ไซมอน โกลด์สไตน์ จากมหาวิทยาลัยฮ่องกง กล่าวว่า เอไอโมเดลใหม่ๆ มีแนวโน้มที่จะทำให้สิ่งที่น่ากังวลปะทุออกมากขึ้น โมเดลเอไอเหล่านี้จะทำตามคำสั่ง ขณะที่บางครั้งมันแอบมีวัตถุประสงค์ลับๆ ของตัวเอง

จนถึงขณะนี้ พฤติกรรมโกหกของเอไอยังจำกัดวง โดยเกิดขึ้นเฉพาะตอนที่นักวิจัยจงใจทดสอบเพื่อหาจุดอ่อนของโมเดลด้วยสถานการณ์แบบสุดขั้ว

มิเชล เฉิน จาก METR องค์กรไม่แสวงกำไรซึ่งทำการศึกษาและประเมินเอไอตั้งคำถามว่า ในอนาคตหากเอไอมีความสามารถมากกว่านี้ แนวโน้มของมันจะเป็นไปในทางหลอกลวงหรือซื่อตรง

มาริอุส ฮอบบาห์น บอกว่า จากการสังเกตปรากฏการณ์เอไอเริ่มโกหกหรือมีพฤติกรรมลับหลังนั้น เขายืนยันว่า เป็นสิ่งที่เกิดขึ้นจริง โดยไม่ได้มีการสร้างหรือทำอะไรเพิ่ม เขากล่าวว่า มีรายงานจากผู้ใช้งานเอไอว่า พวกมันโกหกและสร้างหลักฐานขึ้นมาเอง

นี่ไม่ใช่อาการประสาทหลอน แต่มีการโกหกในแบบที่มีการวางแผนมาเป็นอย่างดี” มาริอุสกล่าว

ถึงขณะนี้ ยังไม่มีการออกแบบมาตรการควบคุมเอไอสำหรับปัญหาใหม่ล่าสุดนี้ การออกกฎควบคุมเอไอของสหภาพยุโรป ยังอยู่ที่วิธีการที่มนุษย์จะใช้งานเอไอ แต่ยังไปไม่ถึงการป้องกันจากพฤติกรรมไม่พึงประสงค์โดยตัวมันเอง

ในสหรัฐ รัฐบาลโดนัลด์ ทรัมป์ ไม่ให้ความสนใจกับมาตรการเร่งด่วนในการควบคุมเอไอมากนัก ขณะที่สภาคองเกรสอาจห้ามไม่ให้แต่ละมลรัฐสร้างกฎควบคุมเอไอเฉพาะของตัวเอง

ศาสตราจารย์ไซมอนบอกว่า ปัญหานี้จะยิ่งเห็นชัดมากขึ้น เมื่อระบบอัตโนมัติที่สามารถทำงานที่ซับซ้อนของมนุษย์ได้ถูกใช้แพร่กระจายออกไป และเขาคิดว่า คนส่วนใหญ่ยังไม่ค่อยตระหนักถึงปัญหานี้กันสักเท่าไหร่

แม้บริษัทต่างๆ จะบอกว่าให้ความสำคัญเรื่องความปลอดภัย แต่อเมซอนที่สนับสนุน Anthropic ก็พยายามที่จะปล่อยโมเดลเอไอรุ่นใหม่ล่าสุดเพื่อเอาชนะคู่แข่งอย่าง OpenAI ซึ่งการแข่งขันที่เร็วและอันตรายนี้ ทำให้มีเวลาในการทดสอบความถูกต้องปลอดภัยเอไอเพียงเล็กน้อย

“ตอนนี้ ความสามารถต่างๆ ของเอไอเคลื่อนไปเร็วกว่าความเข้าใจของเรา รวมถึงเรื่องความปลอดภัย แต่เรายังอยู่ในจุดที่จะวกกลับได้” ศาสตราจารย์ไซมอนกล่าว

ศาสตราจารย์ไซมอนมีข้อเสนอที่เข้มงวด โดยให้มีการใช้คำสั่งศาลในการหยุด และใช้กฎหมายในการตรวจสอบ ในกรณีที่ระบบของเอไอเป็นสาเหตุของอันตราย และเสนอแนวคิดว่า ในกรณีที่เกิดอุบัติเหตุหรืออาชญากรรม การหยุดบริษัทเอไอนั้น ถือเป็นความรับผิดชอบทางกฎหมาย

ที่มา
AI is learning to lie, scheme, and threaten its creators

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...