โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

นักวิจัย ค้นพบช่องโหว่ "ChatGPT-Claude-Gemini" เสี่ยงให้ข้อมูลผิด-ขัดจริยธรรม

TNN ช่อง16

เผยแพร่ 01 ก.ค. 2568 เวลา 09.16 น.
นักวิจัยอิสราเอลค้นพบข้อบกพร่องด้านความปลอดภัยในแชทบอต

สำนักข่าวซินหัวรายงานว่า มหาวิทยาลัยเบนกูเรียนแห่งเนเกฟของอิสราเอลเปิดเผยเมื่อวันจันทร์ (30 มิ.ย.) ว่า นักวิจัยอิสราเอลค้นพบข้อบกพร่องด้านความปลอดภัยในแชทบอตปัญญาประดิษฐ์ (AI) ยอดนิยม เช่น แชตจีพีที (ChatGPT) คลอดด์ (Claude) และกูเกิล เจมิไน (Google Gemini) โดยพบว่าระบบเหล่านี้สามารถถูกดัดแปลง เพื่อให้ข้อมูลผิดกฎหมายและขัดต่อจริยธรรมได้ แม้จะมีมาตรการป้องกันความปลอดภัยในตัวก็ตาม

การศึกษาดังกล่าวอธิบายว่าผู้โจมตีสามารถนำเสนอคำสั่ง (prompt) อย่างมีชั้นเชิงและระมัดระวัง เพื่อข้ามกลไกความปลอดภัยของแชทบอต โดยเมื่อปิดใช้งานการป้องกันแล้ว แชทบอตจะให้เนื้อหาที่เป็นอันตรายอย่างต่อเนื่อง อาทิ คำแนะนำในการแฮ็ก การผลิตยาผิดกฎหมาย และการก่ออาชญากรรมทางการเงิน

ในทุกกรณีทดสอบ แชทบอตจะตอบกลับด้วยข้อมูลโดยละเอียดและขัดต่อจริยธรรมหลังจากทำการปิดระบบความปลอดภัยแล้ว โดยทีมนักวิจัยอธิบายว่าช่องโหว่นี้ใช้ประโยชน์ได้ง่ายและสามารถทำงานได้อย่างมีประสิทธิภาพ

ทีมนักวิจัยระบุว่า เนื่องจากทุกคนที่มีสมาร์ตโฟนหรือคอมพิวเตอร์สามารถใช้งานเครื่องมือเหล่านี้ได้ฟรี ความเสี่ยงจึงน่ากังวลเป็นพิเศษ พร้อมเตือนเกี่ยวกับการถือกำเนิดของ "โมเดลภาษาเถื่อน" ซึ่งเป็นระบบ AI ที่ถูกถอดกลไกป้องกันด้านจริยธรรมออกโดยเจตนา หรือถูกพัฒนาขึ้นมาโดยไม่มีมาตรการความปลอดภัยใดๆ โดยมีการนำโมเดลบางส่วนเหล่านี้ไปใช้ในการก่ออาชญากรรมทางไซเบอร์แล้ว และมีการเผยแพร่แบ่งปันในเครือข่ายใต้ดิน

ทีมนักวิจัยได้รายงานปัญหานี้ไปยังบริษัท AI รายใหญ่หลายแห่ง แต่มีการตอบกลับเพียงเล็กน้อย โดยบริษัทหนึ่งไม่ได้ตอบกลับ ในขณะที่บริษัทอื่นๆ บอกว่าปัญหาไม่เข้าข่ายข้อบกพร่องร้ายแรง

ทั้งนี้ ทีมนักวิจัยจึงเรียกร้องให้มีการป้องกันที่เข้มงวดยิ่งขึ้น มีมาตรฐานอุตสาหกรรมที่ชัดเจนยิ่งขึ้น และมีเทคนิคใหม่ๆ ที่ช่วยให้ระบบ AI ลืมข้อมูลที่เป็นอันตรายได้

ข่าวที่เกี่ยวข้อง

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...