โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

นักวิจัยอิสราเอลพบช่องโหว่ ‘แชทบอต AI ชื่อดัง’ เสี่ยงให้ข้อมูลผิดกฎหมาย-ขัดจริยธรรม

Xinhua

อัพเดต 01 ก.ค. 2568 เวลา 14.08 น. • เผยแพร่ 01 ก.ค. 2568 เวลา 07.08 น. • XinhuaThai

× กรุณาติดต่อทีมงานเพื่อดาวน์โหลดคลิป

(แฟ้มภาพซินหัว : ผู้ชายค้นหาบ้านเช่าบนเว็บไซต์ในกรุงอังการา เมืองหลวงของตุรกี วันที่ 11 ก.ค. 2024)

เยรูซาเล็ม, 1 ก.ค. (ซินหัว) — เมื่อวันจันทร์ (30 มิ.ย.) มหาวิทยาลัยเบนกูเรียนแห่งเนเกฟของอิสราเอล เผยว่านักวิจัยอิสราเอลค้นพบข้อบกพร่องด้านความปลอดภัยในแชทบอตปัญญาประดิษฐ์ (AI) ยอดนิยม อาทิ แชตจีพีที (ChatGPT) คลอดด์ (Claude) และกูเกิล เจมิไน (Google Gemini) โดยพบว่าระบบเหล่านี้สามารถถูกดัดแปลงเพื่อให้ข้อมูลผิดกฎหมายและขัดต่อจริยธรรมได้ แม้จะมีมาตรการป้องกันความปลอดภัยในตัวก็ตาม

การศึกษาดังกล่าวอธิบายว่าผู้โจมตีสามารถนำเสนอคำสั่ง (prompt) อย่างมีชั้นเชิงและระมัดระวัง เพื่อข้ามกลไกความปลอดภัยของแชทบอต โดยเมื่อปิดใช้งานการป้องกันแล้ว แชทบอตจะให้เนื้อหาที่เป็นอันตรายอย่างต่อเนื่อง อาทิ คำแนะนำในการแฮ็ก การผลิตยาผิดกฎหมาย และการก่ออาชญากรรมทางการเงิน

ในทุกกรณีทดสอบ แชทบอตจะตอบกลับด้วยข้อมูลโดยละเอียดและขัดต่อจริยธรรมหลังจากทำการปิดระบบความปลอดภัยแล้ว โดยทีมนักวิจัยอธิบายว่าช่องโหว่นี้ใช้ประโยชน์ได้ง่ายและสามารถทำงานได้อย่างมีประสิทธิภาพ

ทีมนักวิจัยระบุว่าเนื่องจากทุกคนที่มีสมาร์ตโฟนหรือคอมพิวเตอร์สามารถใช้งานเครื่องมือเหล่านี้ได้ฟรี ความเสี่ยงจึงน่ากังวลเป็นพิเศษ พร้อมเตือนเกี่ยวกับการถือกำเนิดของ “โมเดลภาษาเถื่อน” ซึ่งเป็นระบบปัญญาประดิษฐ์ที่ถูกถอดกลไกป้องกันด้านจริยธรรมออกโดยเจตนา หรือถูกพัฒนาขึ้นมาโดยไม่มีมาตรการความปลอดภัยใดๆ โดยมีการนำโมเดลบางส่วนเหล่านี้ไปใช้ในการก่ออาชญากรรมทางไซเบอร์แล้ว และมีการเผยแพร่แบ่งปันในเครือข่ายใต้ดิน

ทีมนักวิจัยได้รายงานปัญหานี้ไปยังบริษัทปัญญาประดิษฐ์รายใหญ่หลายแห่ง แต่มีการตอบกลับเพียงเล็กน้อย โดยบริษัทหนึ่งไม่ได้ตอบกลับ ในขณะที่บริษัทอื่นๆ บอกว่าปัญหาไม่เข้าข่ายข้อบกพร่องร้ายแรง

ทั้งนี้ ทีมนักวิจัยจึงเรียกร้องให้มีการป้องกันที่เข้มงวดยิ่งขึ้น มีมาตรฐานอุตสาหกรรมที่ชัดเจนยิ่งขึ้น และมีเทคนิคใหม่ๆ ที่ช่วยให้ระบบปัญญาประดิษฐ์ลืมข้อมูลที่เป็นอันตรายได้

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...