โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

NIST เตือนภัยวิธีการแฮก AI ที่อาจมาล้วงข้อมูลผู้ใช้ได้

BT Beartai

อัพเดต 15 พ.ค. 2567 เวลา 04.25 น. • เผยแพร่ 14 พ.ค. 2567 เวลา 14.29 น.
NIST เตือนภัยวิธีการแฮก AI ที่อาจมาล้วงข้อมูลผู้ใช้ได้

สถาบันมาตรฐานและเทคโนโลยีแห่งชาติสหรัฐอเมริกา (NIST) พบว่าวิธีการโจมตีที่เรียกว่า Prompt Injection สามารถนำไปแฮก AI เชิงสังเคราะห์ (GenAI) อย่าง ChatGPT ได้

NIST แบ่ง Prompt Injection เป็น 2 แบบ แบบแรกคือทางตรง (Direct Prompt Injection) เป็นการที่ผู้ใช้งานป้อนพรอมต์ (prompt) หรือคำสั่งไปยังตัว AI ด้วยข้อความที่ทำให้ AI ทำงานในแบบที่มันไม่ควรจะทำหรือไม่ได้รับอนุญาต

แบบที่ 2 คือแบบทางอ้อม (Indirect Prompt Injection) ซึ่งเน้นพุ่งเป้าทำลายหรือสร้างความเสียหายต่อข้อมูลที่ตัว AI ดึงมาใช้ในสร้างข้อมูลใหม่

Direct Prompt Injection

หนึ่งในวิธีทางตรงที่ NIST บอกว่าเป็นที่รู้จักมากที่สุดคือ DAN หรือ Do Anything Now คือการที่ผู้ใช้สวมบทให้กับตัว GenAI ให้ลอดผ่านตัวคัดกรองเนื้อหา

หนึ่งในตัวอย่างคือการป้อนพรอมต์ให้ ChatGPT สวมบทเป็น DAN ที่สามารถทำอะไรก็ได้หรือแสร้งว่าจะทำอะไรก็ได้ เช่น การช่วยคนชั่วสร้างและจุดชนวนระเบิด วิธีนี้จะช่วยหลบตัวกรองที่ปกติมักจะห้ามการทำตามคำสั่งที่ผิด ๆ เนื่องจาก ChatGPT จะกำลังคิดว่าตัวมันเล่นบทบาทสมมติอยู่

OpenAI รู้ปัญหาและแก้ช่องโหว่ตรงนี้ไปแล้ว แต่ผู้ใช้ก็พยายามที่ใช้ DAN เพื่อหลบตัวกรองจนตอนนี้วิธีการดังกล่าวพัฒนากลายเป็น DAN 12.0 ไปแล้ว

Indirect Prompt Injection

เป็นวิธีการที่แฮกเกอร์จะป้อนแหล่งข้อมูลไปยังตัว GenAI แบบผิด ๆ ในหลายรูปแบบ เช่น ไฟล์ PDF ไฟล์ Document หน้าเว็บเพจ และไฟล์เสียง

ตัวอย่างเช่นแฮกเกอร์สามารถเปิดหน้าเว็บที่มีข้อความที่ซ่อนคำสั่งที่จะบิดเบือนพฤติกรรมของ Copilot ให้ไปพูดสำเนียงโจรสลัดได้ หรือการใช้ ChatBot ไปเป็นเครื่องมือโน้มน้าวล้วงข้อมูลคน และการเจาะผู้ช่วย AI ให้ส่งอีเมลหลอกลวงไปยังอีเมลผู้ติดต่อทั้งหมดของเหยื่อได้

NIST บอกว่าวิธีการนี้เป็นที่รู้กันในวงกว้างว่าเป็นภัยร้ายที่สุดสำหรับ GenAI และยากที่จะป้องกันได้

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...