โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

ข้อมูลผิดไม่พอ ยังใส่ไข่กันอีก! ChatGPT โดนคอมเพลนข้อมูลผิด ตอบผิดยังพอทน แต่แก้ไขข้อมูลไม่ได้ พอเลย

BT Beartai

อัพเดต 21 มี.ค. 2568 เวลา 13.59 น. • เผยแพร่ 21 มี.ค. 2568 เวลา 13.59 น.
ข้อมูลผิดไม่พอ ยังใส่ไข่กันอีก! ChatGPT โดนคอมเพลนข้อมูลผิด ตอบผิดยังพอทน แต่แก้ไขข้อมูลไม่ได้ พอเลย

ไม่นานมานี้ OpenAI กำลังเจอกับปัญหาการฟ้องร้องเรื่องข้อมูลผิดพลาดจากแชทบอทยอดฮิตอย่าง ChatGPT เพราะแชทบอท AI ตัวดังนี้ดันปล่อยข้อมูลปลอมออกมา แถมคราวนี้เรื่องใหญ่จนหน่วยงานกำกับดูแลคงมองข้ามไม่ได้ กลายเป็นประเด็นร้อนจนถึงหู Noyb องค์กรที่ดูแลเรื่องทำงานด้านการบังคับใช้กฎหมายคุ้มครองข้อมูล เช่น GDPR และ ePrivacy Directive

Noyb องค์กรอิสระด้านความเป็นส่วนตัวจากออสเตรีย ได้ส่งเรื่องคอมเพลนเกี่ยวกับผู้ใช้งาน ChatGPT ในนอร์เวย์ โดยเนื้อหาคือผู้ใช้รายนี้อยากทราบข้อมูลเกี่ยวกับตัวเองแต่เมื่อ ChatGPT เจนข้อมูลออกมา กลับบอกว่าผู้ใช้รายนี้ถูกตัดสินว่ามีความผิดฐานฆาตกรรมลูกของตัวเอง 2 คน และพยายามฆ่าลูกอีกหนึ่งคน ! แน่นอนว่าข้อมูลชุดนี้ไม่ถูกต้องแถมยังเป็นการสร้างเรื่องที่โหดร้ายขึ้นมาอีก

ChatGPT ไม่ได้ยืนยันความถูกต้องของข้อมูลอยู่แล้ว ?

ก่อนหน้านี้ ChatGPT ก็เคยโดนฟ้องเรื่องข้อมูลส่วนตัวที่ผิดอยู่แล้ว เช่นวันเกิด หรือข้อมูลเกี่ยวกับชีวประวัติ สิ่งที่น่ากังวลคือ OpenAI ไม่ได้เปิดโอกาสให้ผู้ใช้งานเข้าไปแก้ไขข้อมูลส่วนตัวในส่วนนี้ Noyb จึงกังวลในประเด็นที่ว่าหาก Open AI ไม่ได้ให้เราไปแก้ไขข้อมูลส่วนตัว (และข้อมูลที่ถูกใส่ไข่) จะเป็นการละเมิดสิทธิภายใต้หลักการภายใต้ความถูกต้องของข้อมูลของ GDPR (ระเบียบการคุ้มครองข้อมูลทั่วไป) อยู่หรือเปล่า ?

หลายคนก็ออกมาเตือนอยู่แล้วว่าผลลัพธ์ที่ได้จากการป้อนข้อมูลใน ChatGPT มักจะเป็นการ ‘คาดเดา’ คำพูดที่เกี่ยวข้องกับคำก่อนหน้า จึงอาจพูดได้ว่า ChatGPT ไม่ได้ให้ข้อมูลที่ถูกต้อง แต่คาดเดาเนื้อหาที่เป็นไปได้เท่านั้น อย่างไรก็ตาม โยคิม โซเดอร์เบิร์ก (Joakim Söderberg) ทนายความด้านการคุ้มครองข้อมูลของ Noyb ก็ออกมาย้ำว่า กรณีที่ผู้ใช้งานไม่สามารถแก้ไขข้อมูลส่วนตัวที่ถูกต้องเองได้ แล้วใส่ disclaimer เล็ก ๆ จาก ChatGPT เพื่อบอกว่า “เนื้อหาอาจไม่ถูกต้อง” แบบนี้ก็ไม่แฟร์ เพราะอย่างกรณีที่ผลลัพธ์ของ ChatGPT ถูกเจนออกมาในแง่ของการกล่าวหารุนแรงอย่างชาวนอร์เวย์ที่ฟ้องร้องมา แล้วอยู่ๆ มาใส่ disclaimer เล็ก ๆ แบบนี้มันก็ไม่ใช่เรื่อง (เพราะไม่งั้นทำไมไม่ให้คำตอบที่ถูกต้องแต่แรก)

OpenAI รับผิดชอบไม่ได้ เพราะไม่ได้มีหน้าที่แก้ไขข้อมูลให้ถูกต้อง แต่เป็นการให้ผลลัพธ์จากคำสั่งที่ป้อนลงไปเท่านั้น

ก่อนหน้าที่ Noyb เคยฟ้อง OpenAI เรื่องข้อมูลส่วนตัวที่ไม่ถูกต้องไปแล้ว คำตอบที่ได้คือทางบริษัทไม่มีหน้าที่แก้ไขข้อมูลให้ถูกต้องแต่แรก เพียงแค่ ‘บล็อก’ การแสดงผลสำหรับบางคำสั่งเท่านั้น แต่ข้อมูลเท็จยังคงอยู่ในระบบ และใช้ disclaimer มาอ้างเช่น ‘อาจผิดพลาด’ หรือ ‘ควรตรวจสอบข้อมูลสำคัญ’ ซึ่งการที่บริษัท AI ทำแบบนี้สามารถหลีกเลี่ยงความเสี่ยงต่อการโดนฟ้องก็จริง แต่ก็ปฎิเสธไม่ได้ว่ามันผิดตามหลักของ GDPR อยู่ดี และที่น่ากังวลที่สุดคือข้อมูลที่ไม่ถูกต้องจะยังอยู่ในระบบ ส่งผลให้ผู้ใช้ยังไม่สามารถมั่นใจได้ว่าข้อมูลจะถูกต้องในอนาคต

กลับมาที่คำฟ้องร้องของ Noyb

Noyb ร้องเรียนต่อ Datatilsynet (หน่วยงานคุ้มครองข้อมูลนอร์เวย์) กรณี OpenAI ปล่อยให้ AI สร้างข้อมูลหมิ่นประมาทผู้ใช้ ซึ่งละเมิดหลักความถูกต้องของข้อมูลตามมาตรา 5(1)(d) ของ GDPR โดยเรียกร้อง ดังนี้

  • OpenAI ต้องลบข้อมูลหมิ่นประมาททั้งหมด
  • ปรับปรุงโมเดลเพื่อป้องกันการสร้างข้อมูลที่ไม่ถูกต้อง
  • หน่วยงานกำหนดค่าปรับเพื่อป้องกันการละเมิดลักษณะเดียวกันในอนาคต
ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...