ในบทความล่าสุดของ ‘ยูวัล โนอาห์ แฮรารี’ นักประวัติศาสตร์และเจ้าของหนังสือดัง เซเปียนส์, ประวัติย่อมนุษยชาติ, 21 บทเรียนแห่งศตวรรษที่ 21 และโฮโมดีอุส ประวัติย่อของวันพรุ่งนี้ ที่เพิ่งเผยแพร่ใน The Economist ย้ำถึงความเสี่ยงของสงครามยุคใหม่ที่มีปัญญาประดิษฐ์ หรือ AI เข้ามามีบทบาท ในแง่การพัฒนาอาวุธที่มีเทคโนโลยี AI โดยเฉพาะสงครามโดรนที่มีพัฒนาการอย่างรวดเร็ว
และในไม่ช้าถ้าไม่รีบสร้างสันติภาพ โลกจะได้เห็น ‘ฝูงโดรนไร้คนขับ’ ต่อสู้กันเองบนท้องฟ้า และคร่าชีวิตผู้คนหลายพันคนในภาคพื้นดิน รวมไปถึงความเสี่ยงที่มีการใช้หุ่นยนต์นักฆ่าด้วยเช่นกัน
จะเห็นว่ามุมมองนักประวัติศาสตร์ที่วิเคราะห์ความเป็นไปได้ของอนาคตได้แม่นยำคนหนึ่งของโลกก็วิตกกับ AI มากเช่นกัน
ล่าสุดความกังวลนี้ก็ชัดเจนยิ่งขึ้นจนเป็นข่าวไปทั่วโลกเมื่อกลุ่มพนักงานปัจจุบัน และอดีตพนักงานของ Google DeepMind บริษัทที่พัฒนาเรื่อง AI ในเครือของ Alphabet และบริษัท OpenAI เจ้าของ ChatGPT อันโด่งดังที่ได้รับการสนับสนุนจาก Microsoft ได้ร่วมกันออกจดหมายเปิดผนึกต่อสาธารณะเมื่อวันที่ 4 มิถุนายน ลงชื่อเปิดเผยตัวตนชัดเจน 13 คน แสดงความกังวลถึงความเสี่ยงจาก AI ที่กำลังเติบโตอย่างรวดเร็ว
โดยในจดหมายระบุว่า แรงจูงใจด้านผลกำไรของบริษัท AI กลายเป็นอุปสรรคสำคัญต่อการกำกับดูแล AI อย่างมีประสิทธิภาพ โดยเราไม่เชื่อว่าโครงสร้างการกำกับดูแลกิจการของบริษัทจะเพียงพอต่อการเปลี่ยนแปลงสถานการณ์นี้ได้
และมีความเสี่ยงที่อาจเกิดขึ้นจาก AI ที่ขาดการควบคุม ทั้งการเผยแพร่ข้อมูลเท็จ การสูญเสียระบบ AI ที่เป็นอิสระ ไปจนถึงการซ้ำเติมความเหลื่อมล้ำที่มีอยู่เดิม ซึ่งอาจนำไปสู่ “การสูญพันธุ์ของมวลมนุษยชาติ” ในท้ายที่สุด
“ฉันกลัว” Daniel Kokotajlo หนึ่งในอดีตพนักงาน OpenAI ที่ร่วมลงชื่อในจดหมายเปิดผนึก หลังจากลาออกจากบริษัทตั้งแต่เดือนเมษายน เพราะสูญเสียความเชื่อมั่นว่าผู้นำของบริษัทจะจัดการกับเทคโนโลยีที่พัฒนาขึ้นมาอย่างมีความรับผิดชอบ
ขณะที่มีพนักงานที่คำนึงถึงความปลอดภัยอีกหลายคนได้ลาออกด้วยเหตุผลที่คล้ายกันเมื่อเร็วๆ นี้ ทำให้เกิดความกังวลมากขึ้นว่า OpenAI จะไม่ยอมรับความเสี่ยงของเทคโนโลยีอย่างจริงจังเพียงพอ
ในจดหมายเปิดผนึก ระบุด้วยว่า มีการพบว่าเครื่องมือสร้างรูปภาพของบริษัท AI หลายแห่ง รวมถึง OpenAI และ Microsoft สามารถสร้างภาพถ่ายที่มีเนื้อหาบิดเบือนเกี่ยวกับการเลือกตั้งได้ แม้บริษัทเหล่านี้จะมีนโยบายสั่งห้ามเนื้อหาประเภทดังกล่าวก็ตาม
“บริษัท AI มีภาระผูกพันเพียงเล็กน้อยในการแบ่งปันข้อมูลบางส่วนกับรัฐบาล และไม่แบ่งปันกับภาคประชาสังคม และไม่อาจไว้วางใจได้ว่าบริษัทเหล่านี้จะแบ่งปันข้อมูลดังกล่าวโดยสมัครใจ”เนื้อหาจดหมายกล่าวไว้
กลุ่มพนักงานในจดหมายเปิดผนึกได้เรียกร้องให้บริษัท AI ต่างๆ อนุญาตให้พนักงานมี สิทธิ์ในการเตือนเกี่ยวกับ AI และไม่บังคับใช้ข้อตกลงการรักษาความลับที่ปิดกั้นการวิพากษ์วิจารณ์
อย่างไรก็ตาม ก่อนหน้านี้มีรายงานข่าวว่า OpenAI ใช้วิธีการป้องกันไม่ให้พนักงานพูดอย่างอิสระเกี่ยวกับงาน AI ของพวกเขา โดย Vox รายงานเมื่อสัปดาห์ที่แล้วว่า OpenAI ให้พนักงานที่ลาออกจากบริษัทต้องลงชื่อในเอกสารที่ตกลงว่าจะไม่มีการพูดในทางลบ และไม่เปิดเผยข้อมูลที่มีข้อจำกัดอย่างยิ่ง ซึ่ง Sam Altman ซีอีโอของ OpenAI ได้ออกมาขอโทษหลังจากมีรายงานข่าวชิ้นนี้ออกมา และบอกว่าจะปรับเปลี่ยนวิธีการรับมือในเรื่องนี้ใหม่
จดหมายเปิดผนึกที่ออกคำเตือนเรื่อง AI เกิดขึ้นหลังจากพนักงานระดับแถวหน้าของ OpenAI 2 คน คือ Ilya Sutskever ผู้ร่วมก่อตั้ง และ Jan Leike นักวิจัยด้านความปลอดภัยคนสำคัญของบริษัท ลาออกจากบริษัทเมื่อเดือนที่แล้ว โดยหลังจากลาออกไปแล้ว Leike กล่าวว่า OpenAI ได้ละทิ้งวัฒนธรรมเรื่องความปลอดภัยในเรื่องเทคโนโลยี
เป็นเสียงสะท้อนล่าสุดที่แสดงความกังวลเกี่ยวกับความปลอดภัยของเทคโนโลยี Generative AI ซึ่งสามารถสร้างข้อความ ภาพ และเสียงที่มีลักษณะคล้ายมนุษย์ได้อย่างรวดเร็ว
วันนี้ประเด็นความกลัว AI หลักๆ มี 2 เรื่องคือ “จริยธรรมของ AI” ที่อาจไปสร้างอคติต่างๆ ทั้งทางเชื้อชาติ การให้ข้อมูลที่ไม่ถูกต้องบิดเบือน กับอีกเรื่องคือ “ความปลอดภัยของ AI” ที่มองว่าเป็นความเสี่ยงที่จะเกิดขึ้นได้ในอนาคต
ส่วน OpenAI ออกมาอธิบายหลังจากเรื่องนี้ว่า แพลตฟอร์มได้เปิดให้มีช่องทางในการให้คำแนะนำและรายงานปัญหาเข้ามาที่บริษัท รวมทั้งยืนยันว่าจะไม่ปล่อยเทคโนโลยีใหม่จนกว่าจะมีมาตรการการป้องกันที่เหมาะสม
“เราภูมิใจในประวัติการทำงานของเราที่ผ่านมาในการส่งมอบระบบ AI ที่มีความสามารถและปลอดภัยที่สุด และเชื่อมั่นในแนวทางทางวิทยาศาสตร์ของเราในการจัดการกับความเสี่ยง เราตกลงกันว่าการถกเถียงเรื่อง AI อย่างเข้มงวดเป็นสิ่งสำคัญเมื่อคำนึงถึงความสำคัญของเทคโนโลยีนี้ และเราจะยังคงมีส่วนร่วมกับรัฐบาล ภาคประชาสังคม และชุมชนอื่นๆ ทั่วโลกต่อไป”โฆษกของ OpenAI กล่าว
ความกังวลถึงอันตรายที่อาจเกิดขึ้นจาก AI นั้นมีมานานหลายสิบปีแล้ว แต่การเติบโตอย่างรวดเร็วของ AI ในช่วงไม่กี่ปีมานี้ ยิ่งเพิ่มความกลัวให้รุนแรงขึ้นไปอีก แม้บริษัท AI ต่างๆ ประกาศต่อสาธารณะถึงความมุ่งมั่นในการพัฒนาเทคโนโลยีอย่างปลอดภัย แต่ถึงตอนนี้ก็ไม่ได้ทำให้ใครรู้สึกเชื่อและสบายใจได้ทั้งหมด
อ้างอิง
https://www.theguardian.com/technology/article/2024/jun/04/openai-google-ai-risks-letter
https://www.vox.com/future-perfect/353933/openai-open-letter-safety-whistleblowers-right-to-warn