โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที ธุรกิจ

คนวงในเตือนความเสี่ยง AI ถึงขั้นอาจทำ ‘มนุษย์สูญพันธุ์’

TODAY

อัพเดต 19 มิ.ย. เวลา 11.37 น. • เผยแพร่ 06 มิ.ย. เวลา 04.12 น. • workpointTODAY
คนวงในเตือนความเสี่ยง AI ถึงขั้นอาจทำ ‘มนุษย์สูญพันธุ์’

ในบทความล่าสุดของ ‘ยูวัล โนอาห์ แฮรารี’ นักประวัติศาสตร์และเจ้าของหนังสือดัง เซเปียนส์, ประวัติย่อมนุษยชาติ, 21 บทเรียนแห่งศตวรรษที่ 21 และโฮโมดีอุส ประวัติย่อของวันพรุ่งนี้ ที่เพิ่งเผยแพร่ใน The Economist ย้ำถึงความเสี่ยงของสงครามยุคใหม่ที่มีปัญญาประดิษฐ์ หรือ AI เข้ามามีบทบาท ในแง่การพัฒนาอาวุธที่มีเทคโนโลยี AI โดยเฉพาะสงครามโดรนที่มีพัฒนาการอย่างรวดเร็ว

และในไม่ช้าถ้าไม่รีบสร้างสันติภาพ โลกจะได้เห็น ‘ฝูงโดรนไร้คนขับ’ ต่อสู้กันเองบนท้องฟ้า และคร่าชีวิตผู้คนหลายพันคนในภาคพื้นดิน รวมไปถึงความเสี่ยงที่มีการใช้หุ่นยนต์นักฆ่าด้วยเช่นกัน

จะเห็นว่ามุมมองนักประวัติศาสตร์ที่วิเคราะห์ความเป็นไปได้ของอนาคตได้แม่นยำคนหนึ่งของโลกก็วิตกกับ AI มากเช่นกัน

ล่าสุดความกังวลนี้ก็ชัดเจนยิ่งขึ้นจนเป็นข่าวไปทั่วโลกเมื่อกลุ่มพนักงานปัจจุบัน และอดีตพนักงานของ Google DeepMind บริษัทที่พัฒนาเรื่อง AI ในเครือของ Alphabet และบริษัท OpenAI เจ้าของ ChatGPT อันโด่งดังที่ได้รับการสนับสนุนจาก Microsoft ได้ร่วมกันออกจดหมายเปิดผนึกต่อสาธารณะเมื่อวันที่ 4 มิถุนายน ลงชื่อเปิดเผยตัวตนชัดเจน 13 คน แสดงความกังวลถึงความเสี่ยงจาก AI ที่กำลังเติบโตอย่างรวดเร็ว

โดยในจดหมายระบุว่า แรงจูงใจด้านผลกำไรของบริษัท AI กลายเป็นอุปสรรคสำคัญต่อการกำกับดูแล AI อย่างมีประสิทธิภาพ โดยเราไม่เชื่อว่าโครงสร้างการกำกับดูแลกิจการของบริษัทจะเพียงพอต่อการเปลี่ยนแปลงสถานการณ์นี้ได้

และมีความเสี่ยงที่อาจเกิดขึ้นจาก AI ที่ขาดการควบคุม ทั้งการเผยแพร่ข้อมูลเท็จ การสูญเสียระบบ AI ที่เป็นอิสระ ไปจนถึงการซ้ำเติมความเหลื่อมล้ำที่มีอยู่เดิม ซึ่งอาจนำไปสู่ “การสูญพันธุ์ของมวลมนุษยชาติ” ในท้ายที่สุด

“ฉันกลัว” Daniel Kokotajlo หนึ่งในอดีตพนักงาน OpenAI ที่ร่วมลงชื่อในจดหมายเปิดผนึก หลังจากลาออกจากบริษัทตั้งแต่เดือนเมษายน เพราะสูญเสียความเชื่อมั่นว่าผู้นำของบริษัทจะจัดการกับเทคโนโลยีที่พัฒนาขึ้นมาอย่างมีความรับผิดชอบ

ขณะที่มีพนักงานที่คำนึงถึงความปลอดภัยอีกหลายคนได้ลาออกด้วยเหตุผลที่คล้ายกันเมื่อเร็วๆ นี้ ทำให้เกิดความกังวลมากขึ้นว่า OpenAI จะไม่ยอมรับความเสี่ยงของเทคโนโลยีอย่างจริงจังเพียงพอ

ในจดหมายเปิดผนึก ระบุด้วยว่า มีการพบว่าเครื่องมือสร้างรูปภาพของบริษัท AI หลายแห่ง รวมถึง OpenAI และ Microsoft สามารถสร้างภาพถ่ายที่มีเนื้อหาบิดเบือนเกี่ยวกับการเลือกตั้งได้ แม้บริษัทเหล่านี้จะมีนโยบายสั่งห้ามเนื้อหาประเภทดังกล่าวก็ตาม

“บริษัท AI มีภาระผูกพันเพียงเล็กน้อยในการแบ่งปันข้อมูลบางส่วนกับรัฐบาล และไม่แบ่งปันกับภาคประชาสังคม และไม่อาจไว้วางใจได้ว่าบริษัทเหล่านี้จะแบ่งปันข้อมูลดังกล่าวโดยสมัครใจ”เนื้อหาจดหมายกล่าวไว้

กลุ่มพนักงานในจดหมายเปิดผนึกได้เรียกร้องให้บริษัท AI ต่างๆ อนุญาตให้พนักงานมี สิทธิ์ในการเตือนเกี่ยวกับ AI และไม่บังคับใช้ข้อตกลงการรักษาความลับที่ปิดกั้นการวิพากษ์วิจารณ์

อย่างไรก็ตาม ก่อนหน้านี้มีรายงานข่าวว่า OpenAI ใช้วิธีการป้องกันไม่ให้พนักงานพูดอย่างอิสระเกี่ยวกับงาน AI ของพวกเขา โดย Vox รายงานเมื่อสัปดาห์ที่แล้วว่า OpenAI ให้พนักงานที่ลาออกจากบริษัทต้องลงชื่อในเอกสารที่ตกลงว่าจะไม่มีการพูดในทางลบ และไม่เปิดเผยข้อมูลที่มีข้อจำกัดอย่างยิ่ง ซึ่ง Sam Altman ซีอีโอของ OpenAI ได้ออกมาขอโทษหลังจากมีรายงานข่าวชิ้นนี้ออกมา และบอกว่าจะปรับเปลี่ยนวิธีการรับมือในเรื่องนี้ใหม่

จดหมายเปิดผนึกที่ออกคำเตือนเรื่อง AI เกิดขึ้นหลังจากพนักงานระดับแถวหน้าของ OpenAI 2 คน คือ Ilya Sutskever ผู้ร่วมก่อตั้ง และ Jan Leike นักวิจัยด้านความปลอดภัยคนสำคัญของบริษัท ลาออกจากบริษัทเมื่อเดือนที่แล้ว โดยหลังจากลาออกไปแล้ว Leike กล่าวว่า OpenAI ได้ละทิ้งวัฒนธรรมเรื่องความปลอดภัยในเรื่องเทคโนโลยี

เป็นเสียงสะท้อนล่าสุดที่แสดงความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยี Generative AI ซึ่งสามารถสร้างข้อความ ภาพ และเสียงที่มีลักษณะคล้ายมนุษย์ได้อย่างรวดเร็ว

วันนี้ประเด็นความกลัว AI หลักๆ มี 2 เรื่องคือ “จริยธรรมของ AI” ที่อาจไปสร้างอคติต่างๆ ทั้งทางเชื้อชาติ การให้ข้อมูลที่ไม่ถูกต้องบิดเบือน กับอีกเรื่องคือ “ความปลอดภัยของ AI” ที่มองว่าเป็นความเสี่ยงที่จะเกิดขึ้นได้ในอนาคต

ส่วน OpenAI ออกมาอธิบายหลังจากเรื่องนี้ว่า แพลตฟอร์มได้เปิดให้มีช่องทางในการให้คำแนะนำและรายงานปัญหาเข้ามาที่บริษัท รวมทั้งยืนยันว่าจะไม่ปล่อยเทคโนโลยีใหม่จนกว่าจะมีมาตรการการป้องกันที่เหมาะสม

“เราภูมิใจในประวัติการทำงานของเราที่ผ่านมาในการส่งมอบระบบ AI ที่มีความสามารถและปลอดภัยที่สุด และเชื่อมั่นในแนวทางทางวิทยาศาสตร์ของเราในการจัดการกับความเสี่ยง เราตกลงกันว่าการถกเถียงเรื่อง AI อย่างเข้มงวดเป็นสิ่งสำคัญเมื่อคำนึงถึงความสำคัญของเทคโนโลยีนี้ และเราจะยังคงมีส่วนร่วมกับรัฐบาล ภาคประชาสังคม และชุมชนอื่นๆ ทั่วโลกต่อไป”โฆษกของ OpenAI กล่าว

ความกังวลถึงอันตรายที่อาจเกิดขึ้นจาก AI นั้นมีมานานหลายสิบปีแล้ว แต่การเติบโตอย่างรวดเร็วของ AI ในช่วงไม่กี่ปีมานี้ ยิ่งเพิ่มความกลัวให้รุนแรงขึ้นไปอีก แม้บริษัท AI ต่างๆ ประกาศต่อสาธารณะถึงความมุ่งมั่นในการพัฒนาเทคโนโลยีอย่างปลอดภัย แต่ถึงตอนนี้ก็ไม่ได้ทำให้ใครรู้สึกเชื่อและสบายใจได้ทั้งหมด

อ้างอิง

https://www.theguardian.com/technology/article/2024/jun/04/openai-google-ai-risks-letter

https://www.reuters.com/technology/openai-google-deepminds-current-former-employees-warn-about-ai-risks-2024-06-04/

https://www.economist.com/by-invitation/2024/06/03/yuval-noah-harari-on-how-to-prevent-a-new-age-of-imperialism?itm_source=parsely-api

https://www.vox.com/future-perfect/353933/openai-open-letter-safety-whistleblowers-right-to-warn

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0

ความเห็น 0

ยังไม่มีความเห็น