โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

อาชญากรรม

Cyber Alert ! "ระวัง! AI กับมิจฉาชีพ อาจทำให้คุณหลงเชื่อ แม้จะเป็นวีดีโอคอลก็อย่าไว้ใจ!"

สวพ.FM91

อัพเดต 09 มิ.ย. 2568 เวลา 06.08 น. • เผยแพร่ 09 มิ.ย. 2568 เวลา 06.08 น.

9 มิ.ย. 2568 ตำรวจไซเบอร์เตือน AI ปลอมใบหน้า (Deepfake) คือ เทคโนโลยีที่ใช้ปัญญาประดิษฐ์ในการสร้างหรือแก้ไขใบหน้าผู้คนในภาพหรือวีดีโอให้เหมือนจริง ซึ่งมิจฉาชีพอาจนำเทคโนโลยีนี้มาหลอกลวงผู้คนโดยการสร้างวีดีโอปลอมของบุคคลที่มีชื่อเสียงหรือคนรู้จัก เพื่อขอข้อมูลส่วนตัวหรือเงินจากผู้ที่ถูกหลอก

ดังนั้นอย่าเชื่อทุกอย่างที่เห็นในวิดีโอการตัดต่อและเทคโนโลยี AI สามารถสร้างภาพหรือเสียงที่ดูเหมือนจริงได้ หากมีข้อสงสัย ให้หยุดและตรวจสอบข้อมูลเพิ่มเติม
วิธีสังเกตและป้องกันภัยจากมิจฉาชีพที่ใช้ AI และเทคโนโลยีหลอกลวง:

1. ระวังการขอข้อมูลส่วนตัว หากมีการขอข้อมูลส่วนตัวหรือข้อมูลทางการเงิน ควรระมัดระวังและไม่ให้ข้อมูลทันที

2. ตรวจสอบแหล่งที่มา ให้ตรวจสอบแหล่งที่มาหรือหมายเลขโทรศัพท์ของผู้ติดต่อก่อน

3. อย่ารีบทำธุรกรรมทางการเงิน หากมีการขอให้โอนเงินหรือทำธุรกรรมทันทีจากคนที่ไม่รู้จัก อย่าทำการโอนจนกว่าจะยืนยันข้อมูลหรือถามคำปรึกษาจากคนใกล้ชิด

4. ใช้การยืนยันตัวตนแบบสองขั้นตอน ตั้งค่าการยืนยันตัวตนสองขั้นตอน (Two-Factor Authentication) ในบัญชีออนไลน์เพื่อเพิ่มความปลอดภัย

5. เรียนรู้เกี่ยวกับเทคโนโลยี AI ทำความเข้าใจเกี่ยวกับเทคโนโลยี AI และการใช้งาน เพื่อให้สามารถแยกแยะระหว่างสิ่งที่เป็นจริงและสิ่งที่เป็นการหลอกลวงได้

การระมัดระวังและไม่เชื่อถือข้อมูลจากแหล่งที่ไม่คุ้นเคยเป็นวิธีที่ดีที่สุดในการป้องกันตัวจากมิจฉาชีพ

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...