AI ตัวต่อไป รอก่อนได้ไหม? เมื่อ AI ฉลาดได้ แต่ไม่ต้องรีบโต...สำรวจทางเลือกที่ช้ากว่า แต่ปลอดภัยกว่าของการใช้ AI ในวันนี้
เมื่อปีที่แล้ว เดเนียล โคโคทาจโล (Daniel Kokotajlo) นักวิจัยด้านความปลอดภัยของ AI จากบริษัท OpenAI ได้ลาออกจากตำแหน่งโดยให้เหตุผลว่า เขาเชื่อว่าบริษัทยังไม่พร้อมที่จะรับมือกับอนาคตของเทคโนโลยีที่ตนเองกำลังพัฒนา และกำลังมุ่งหน้าสู่การสร้างระบบที่ทรงพลังเกินกว่าจะควบคุมได้
AI กำลังจะกลายเป็น “ความปกติใหม่” ของมนุษยชาติ ไม่เพียงแต่ในมุมมองของนักวิชาการหรือภาคประชาชนเท่านั้น แม้แต่เจฟฟรีย์ ฮินตัน (Geoffrey Hinton) ผู้ได้รับการขนานนามว่าเป็น “บิดาแห่ง AI (Godfather of AI)” ก็ยังออกมาเตือนถึงความเสี่ยงจากการพัฒนา AI ที่กำลังก้าวหน้าไปอย่างก้าวกระโดด เขากล่าวในรายการพอดแคสต์ The Diary of a CEO เมื่อไม่นานมานี้ว่า เทคโนโลยีที่เขาเคยช่วยสร้าง กำลังกลายเป็นสิ่งที่น่ากลัวขึ้นเรื่อย ๆ และเรายังไม่ให้ความสำคัญกับความเสี่ยงของปัญญาประดิษฐ์มากเพียงพอ
เจฟฟรีย์แยกความเสี่ยงของ AI ออกเป็นสองระดับ คือ ความเสี่ยงระยะสั้น เช่น ความเสี่ยงที่เกิดจากการที่ผู้คนนำ AI ไปใช้ในทางที่ผิด และความเสี่ยงระยะยาว เช่น การที่ AI พัฒนาสติปัญญาจนสามารถตัดสินใจเองได้โดยไม่จำเป็นต้องพึ่งพามนุษย์อีกต่อไป
ซีกัล ซามูเอล (Sigal Samuel) นักข่าวจาก Vox ได้ตั้งคำถามที่ไม่อาจหลีกเลี่ยงได้ในสมัยว่า “อีกนานแค่ไหนที่ AI จะพัฒนาไปไกลจนเข้ามาควบคุมโลกของเรา จนมนุษย์ต้องเป็นฝ่ายตอบสนองต่อ AI แทนที่จะเป็น AI ที่ตอบสนองเรา?”
(Deep / Unsplash)
AI สนามประลองยุทธใหม่ของมหาอำนาจ
นับแค่เพียงระยะ 3-4 ปีให้ที่ผ่านมา เราได้เห็นอัตราเร่งของการพัฒนา AI อย่างน่าทึ่ง ตั้งแต่ DALL-E 2 และ Stable Diffusion ซึ่งสามารถเปลี่ยนคำและข้อความสั้น ๆ ให้กลายเป็นภาพที่สมจริง จากนั้น OpenAI ซึ่งได้รับการสนับสนุนจาก Microsoft ก็นำเสนอ ChatGPT ซึ่งสามารถเขียนเรียงความได้อย่างน่าเชื่อถือและจุดกระแสให้ผู้คนทั่วโลกหันมาสนใจเทคโนโลยีนี้อย่างจริงจัง หลายวงการเริ่มแสดงความกังวลว่า AI อาจเข้ามาแทนที่แรงงานมนุษย์ โดยเฉพาะเมื่อแชตบอทอัจฉริยะรุ่นใหม่ในปัจจุบันสามารถตอบสนองได้ทั้งในรูปแบบภาพและข้อความในระดับโลก สหรัฐอเมริกาไม่ใช่ชาติเดียวที่ทุ่มทุนมหาศาลให้กับการพัฒนา AI แต่มหาอำนาจโลกทุกขั้วต่างลงสนามนี้เช่นเดียวกัน ตัวอย่างเช่น สาธารณรัฐประชาชนจีนซึ่งเปิดตัว DeepSeek เมื่อต้นปีที่ผ่านมา สร้างแรงสั่นสะเทือนไปทั้งวงการไม่แพ้ช่วงที่ ChatGPT เปิดตัวใหม่ ๆ แรกคลอด ฉะนั้นคงไม่ผิดหนักหากจะกล่าวว่า ปัญญาประดิษฐ์กลายเป็นอีกหนึ่ง “สนามรบ” แห่งใหม่ที่นานาชาติพร้อมใจกันลงแข่งขัน
แต่คำถามสำคัญคือ การแข่งขันนี้เป็นแนวทางที่ดีแล้วหรือ?
นักข่าวจาก Vox ตั้งคำถาม รวมถึงนักวิจัยอีกจำนวนหนึ่งตั้งข้อสังเกตว่า หากนักวิทยาศาสตร์สามารถสร้าง AI ที่มีความสามารถเทียบเท่าหรือเหนือกว่ามนุษย์ ไม่ใช่แค่ในด้านใดด้านหนึ่ง แต่หลาย ๆ ด้านพร้อมกัน จะเกิดอะไรขึ้น? ถ้าระบบนั้นกลายเป็นภัย ไม่ใช่เพราะมันตั้งใจจะทำลายมนุษยชาติ แต่เพียงเพราะมันกำลังมุ่งมั่นทำตามเป้าหมายที่ไม่สอดคล้องกับคุณค่าของมนุษย์ ระบบแบบนั้นอาจกลายเป็น “เครื่องจักรทำลายล้าง” ที่แท้จริง ซึ่งเป็นสิ่งที่มนุษย์สร้างขึ้นเองด้วยเหตุนี้ จึงเกิดเป็นกระแสเรียกร้องจากนักวิจัยและภาคประชาชนบางกลุ่ม ให้ “ชะลอ” ความเร็วในการพัฒนา AI ลง นักข่าวจาก Vox มองประเด็นนี้ว่า “ทางออกที่ดีที่สุดเพื่อหลีกเลี่ยงหายนะจาก AI อาจไม่ใช่การพัฒนาระบบที่ทรงพลังยิ่งขึ้นเรื่อย ๆ แต่อาจเป็นการไม่สร้าง ‘เครื่องจักรทำลายล้าง’ ขึ้นมาเลยตั้งแต่ต้น หรือหากเลี่ยงไม่ได้ ก็อาจชะลอความก้าวหน้าของ AI แทนที่จะเร่งเดินหน้าโดยไม่มีเบรก
(Milad Fakurian / Unsplash)
Slow AI
เมื่อวันที่ 28 มีนาคม 2023 องค์กร Future of Life Institute (FLI) ซึ่งเป็นองค์กรไม่แสวงหาผลกำไรที่เน้นสื่อสารเรื่องความเสี่ยงที่อาจเกิดขึ้นจากปัญญาประดิษฐ์ ได้เผยแพร่จดหมายเปิดผนึกที่มีผู้มีชื่อเสียงหลายคน เช่น อีลอน มัสก์ (Elon Musk) สตีฟ วอซเนียก (Steve Wozniak) และ โยชัว เบนจิโอ (Yoshua Bengio) ร่วมลงนามในจดหมายฉบับนี้ โดยเรียกร้องให้บริษัทเทคโนโลยี “หยุดการพัฒนาโมเดล AI ขนาดใหญ่” ที่มีพลังเหนือกว่า GPT-4 ของ OpenAI เป็นเวลาอย่างน้อย 6 เดือนใจความสำคัญตอนหนึ่งของจดหมายระบุว่า “ระบบปัญญาประดิษฐ์ที่มีความสามารถสูงควรได้รับการพัฒนาเมื่อเรามั่นใจแล้วว่าผลกระทบจะเป็นไปในทางบวก และความเสี่ยงจะสามารถจัดการได้ ดังนั้น เราจึงขอเรียกร้องให้ห้องทดลองปัญญาประดิษฐ์ทั้งหมดหยุดการฝึกอบรมระบบที่มีศักยภาพเหนือกว่า GPT-4 เป็นเวลาอย่างน้อย 6 เดือน”
แม้คำเรียกร้องนี้จะไม่ได้รับการตอบสนองโดยตรง แต่สิ่งที่เห็นพ้องกันในวงกว้างก็คือ “ความไม่มั่นใจในทิศทางของ AI” ซึ่งเป็นหัวใจสำคัญของปัญหาที่เรียกว่า “Alignment Problem” หรือปัญหาความสอดคล้อง หมายถึงปัญหาเชิงจริยธรรมในการออกแบบ AI ให้ทำงานสอดคล้องกับความต้องการ เจตนารมณ์ และค่านิยมของมนุษย์ เพื่อให้เป็นไปในทางที่จะส่งผลดีต่อสังคมโดยรวมผู้อ่านหลายคนอาจจะยังไม่รู้สึกถึงอันตรายจาก AI แต่เหตุการณ์มากกว่า 60 ตัวอย่างที่บ่งชี้ว่า AI เริ่มแสดงพฤติกรรมบางสิ่งที่เบี่ยงเบนไปจากเป้าหมายของผู้สร้างได้เกิดขึ้นแล้ว เช่น AI ที่พยายามทำคะแนนสูงสุดในเกม ไม่ใช่โดยการเล่นอย่างยุติธรรมหรือเรียนรู้ทักษะในเกม แต่โดยการแฮ็กระบบคะแนนแทน กรณีแบบนี้แสดงให้เห็นถึง Alignment Problem ที่เราควรใส่ใจ หากไม่มีการควบคุมที่เหมาะสม AI ก็อาจดำเนินการในแบบที่ไม่สอดคล้องกับความตั้งใจของมนุษย์ได้
คำถามที่ตามมาก็คือ ทำไมเสียงเรียกร้องให้ “ชะลอ” การพัฒนากลับเบาบางจนเหมือนแทบไม่มีใครพูดถึง คำตอบหนึ่งอาจอยู่ในมุมมองจากฝั่งเทคโนโลยีที่เห็นว่า “การพัฒนาเทคโนโลยีนั้นเป็นสิ่งที่เลี่ยงไม่ได้ การพยายามชะลอหรือหยุดจึงไม่มีประโยชน์” “วิธีเดียวที่จะทำให้ AI ที่ทรงพลังปลอดภัย คือการทดลองกับ AI ที่ทรงพลังนั้น” ไปจนถึง “เราไม่อยากเสียเปรียบในสงคราม AI กับจีน”
อเจยา โคตรา (Ajeya Cotra) นักวิเคราะห์ AI จากมูลนิธิ Open Philanthropy ให้สัมภาษณ์กับ Vox ว่า เธอรู้สึกกลัว "โลกที่วุ่นวายสุด ๆ ที่ผู้คนต่างวิ่งวุ่น ทำทั้งสิ่งที่ช่วยเหลือและสิ่งที่เป็นอันตรายไปพร้อม ๆ กัน และทุกอย่างก็เกิดขึ้นเร็วเกินไป"
แนวคิดของเธอคือการหยุดพัฒนา AI ที่ล้ำหน้ากว่าเดิมเป็นเวลา 5-10 ปี เพื่อให้สังคมได้มีเวลาปรับตัวกับระบบ AI ที่มีอยู่ และเปิดโอกาสให้ผู้เชี่ยวชาญสามารถทุ่มเทให้กับงานวิจัยด้านความปลอดภัยได้อย่างเต็มที่ เมื่อการวิจัยเริ่มถึงจุดอิ่มตัว จึงค่อยเพิ่มความสามารถของ AI ขึ้นเล็กน้อย จากนั้นก็รออีก 5-10 ปี แล้วทำกระบวนการนี้ซ้ำอีกครั้ง เพื่อเป็นจังหวะที่ช้าแต่มั่นคง และอาจเป็นทางเลือกที่ปลอดภัยกว่าสำหรับอนาคตของมนุษยชาติ
(ThisIsEngineering / Pexels)
หลุดพ้นวิวาทะจาก “หนุน v. ต้าน AI” สู่ใครต้อง “รับผิดชอบ”
เจฟฟรีย์ ดิง (Jeffrey Ding) ผู้ช่วยศาสตราจารย์ด้านรัฐศาสตร์จากมหาวิทยาลัยจอร์จ วอชิงตัน เชื่อว่า การชะลอความก้าวหน้าของ AI ในระยะสั้นนั้นเป็นประโยชน์ต่อทุกฝ่าย และเป็นหนทางที่จะนำไปสู่การพัฒนาที่ยั่งยืนมากขึ้นในระยะยาว อย่างไรก็ตาม เสียงเรียกร้องให้ชะลอการพัฒนาปัญญาประดิษฐ์ยังคงดังไม่เพียงพอจะเปลี่ยนทิศทางของกระแสหลักได้ และในไม่ช้า ทุกอาชีพอาจต้องปรับตัวเพื่อทำงานร่วมกับเจ้าจักรกลอันชาญฉลาดไม่มากก็น้อย
โจชัว รอทช์แมน (Joshua Rothman) คอลัมนิสต์จากนิตยสาร The New Yorker ชวนคิดต่อถึงอนาคตการทำงานของมนุษย์ในโลกที่ AI จะกลายมาเป็นเพื่อนร่วมงาน
“ไม่ว่าคุณจะทำอาชีพอะไร คุณอาจต้องทำงานร่วมกับหรือเคียงข้างเครื่องจักร เพราะเครื่องจักรเหล่านี้สามารถทำงานบางอย่างที่ต้องใช้ความคิดแทนเราได้ แต่ในโรงงานเช่นนี้ หากเกิดอุบัติเหตุหรือมีสินค้าที่มีข้อบกพร่องถูกส่งออกไป ใครจะเป็นผู้รับผิดชอบ? ในทางกลับกัน หากโรงงานนั้นถูกบริหารอย่างดีและมีผลิตภัณฑ์ที่น่าประทับใจ ใครจะได้รับคำชม?”
คำถามเรื่อง “ความรับผิดชอบ” จึงกลายเป็นประเด็นหนึ่งที่เราควรให้ความสนใจพิจารณา ไม่ว่าจะสนับสนุนหรือต่อต้านการใช้ AI ก็ตาม เพราะท้ายที่สุดแล้ว ใครคือผู้ที่ต้องรับผิดชอบต่อผลกระทบที่เกิดขึ้นจากเทคโนโลยีนี้ ทั้งในแง่ดีและร้าย
โอลูเฟมี โอ. ไตโว (Olúfẹ́mi O. Táíwò) รองศาสตราจารย์ประจำภาควิชาปรัชญาจากมหาวิทยาลัยจอร์จทาวน์ได้แสดงความเห็นต่อประเด็นนี้อย่างน่าสนใจไว้ในโพสต์บนบัญชี Bluesky ของตัวเองว่า “ความกลัวเกี่ยวกับความเสี่ยงของ AI ส่วนใหญ่มักจะมุ่งเน้นไปที่ ‘สิ่งที่ AI อาจทำได้หากมันพัฒนาขึ้นมากพอ' แทนที่จะตั้งคำถามว่า ‘อะไรคือสิ่งที่กลุ่มทุนผูกขาดสามารถทำได้ หาก AI กลายเป็นเครื่องมือที่ต้นทุนต่ำกว่าการขูดรีดแรงงานในรูปแบบเดิม’” ฮาเกน บริกซ์ (Hagen Blix) ผู้เขียน Why We Fear AI: On the Interpretation of Nightmares เสริมประเด็นนี้ว่า เรื่องเล่าที่เน้น “ภัยคุกคามจาก AI” ในสื่อกระแสหลัก มักเป็นการเชื่อมโยง “ความกังวลของชนชั้นนำ” เช่น การแข่งขันทางเทคโนโลยีกับจีน เข้ากับ “ความกลัวของคนทั่วไป” อย่างแนบเนียน จนละเลยคำถามที่สำคัญกว่าอย่าง “ทำไมกลุ่มอภิมหาเศรษฐีถึงสามารถผูกขาดเครื่องมืออันทรงพลังนี้ไว้ได้ในมือ?”
ข้อมูลจากเพนตากอนเมื่อวันจันทร์ที่ 16 มิถุนายนที่ผ่านมาเผยว่า บริษัท OpenAI ผู้พัฒนา ChatGPT ได้รับสัญญามูลค่า 200 ล้านเหรียญสหรัฐ เพื่อจัดหาเทคโนโลยีปัญญาประดิษฐ์ให้กับกระทรวงกลาโหมสหรัฐฯ ตัวอย่างเช่นนี้แสดงให้เห็นถึงทิศทางของ AI ที่กำลังอยู่ภายใต้การควบคุมของกลุ่มทุนเพียงไม่กี่ราย และอาจตอบความสงสัยได้ว่า เหตุใดการเรียกร้องให้ชะลอการยกระดับขีดความสามารถของ AI จึงไม่เคยเป็นผลในเชิงนโยบาย
ท้ายที่สุด โจชัว รอทช์แมน กล่าวไว้ได้อย่างน่าคิดว่า การมาถึงของ AI ไม่ควรหมายถึงจุดจบของ “ความรับผิดชอบ” ตรงกันข้าม มันควรทำให้ “ความรับผิดชอบ” เข้มข้นขึ้นต่างหาก “เมื่อคนหนึ่งสามารถทำอะไรได้มากขึ้น เขาก็ต้องรับผิดชอบมากขึ้นเช่นกัน และเมื่อจำนวนคนในห้องลดลง ความรับผิดชอบของแต่ละคนก็ยิ่งเข้มข้นมากขึ้นไปอีก”
(The New York Public Library / Unsplash)
AI อาจถูกมองว่าเป็นเครื่องมือที่ช่วยแบ่งเบาภาระการตัดสินใจของมนุษย์ แต่สุดท้ายแล้ว คนที่ใช้มันต่างหากคือผู้ควบคุมการสั่งการอยู่ดี คำถามสำคัญจึงไม่ใช่แค่ว่า “AI จะฉลาดแค่ไหน?” แต่คือ “ใครมีสิทธิ์ในการใช้งานมัน และใช้มันเพื่ออะไรหรือเพื่อใคร?” เพราะเมื่อเทคโนโลยีทรงพลังถูกกระจุกอยู่ในมือของคนไม่กี่กลุ่ม บทบาทของสังคมไม่ใช่แค่การชื่นชมความก้าวหน้า แต่คือการตั้งคำถามเรื่องความโปร่งใส ความรับผิดชอบ และเจตนารมณ์เบื้องหลังการพัฒนา
นั่นคือแก่นสำคัญของเสียงเตือนจากกลุ่มผู้สนับสนุนแนวคิด Slow AI ที่ไม่ได้ต่อต้านเทคโนโลยีนี้ แต่กำลังเรียกร้องให้เราชะลอความเร็ว เพื่อให้ทันคิด ทันถาม และทันต่อการรับมือกับสิ่งที่อาจเปลี่ยนอนาคตของมนุษยชาติไปโดยสิ้นเชิง
ที่มา : บทความ “The case for slowing down AI” โดย Sigal Samuel
บทความ “OpenAI resignations are reaching an alarming level. Here are 11 key people who have left” โดย Chris Morris
บทความ “Next Gen Investing There’s a ’10% to 20% chance’ that AI will displace humans completely, says ‘godfather’ of the technology” โดย Ashton Jackson และ Tom Huddleston Jr.
บทความ “Two Paths for A.I.” โดย Joshua Rothman
บทความ “OpenAI wins $200 million US defense contract” โดย Kanishka Singh
บทความ “ปัญญาประดิษฐ์เกิดมาทำไม? : อ่านความสำคัญของ ‘วัตถุประสงค์’ เมื่อเหตุผลการมีชีวิตอยู่ของปัญญาประดิษฐ์อาจไม่ตรงกับความคาดหวังของมนุษย์” โดย จิตร์ทัศน์ ฝักเจริญผล