โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

สรุปปมขัดแย้ง Anthropic vs. Pentagon: หลังทรัมป์สั่งห้ามหน่วยงานรัฐใช้เทคโนโลยีทั้งหมดจาก Anthropic

THE STANDARD

อัพเดต 4 ชั่วโมงที่ผ่านมา • เผยแพร่ 4 ชั่วโมงที่ผ่านมา • thestandard.co
สรุปปมขัดแย้ง Anthropic vs. Pentagon: หลังทรัมป์สั่งห้ามหน่วยงานรัฐใช้เทคโนโลยีทั้งหมดจาก Anthropic

โดนัลด์ ทรัมป์ ประธานาธิบดีสหรัฐฯ แถลงเมื่อวันศุกร์ที่ผ่านมา โดยระบุว่า ตนได้สั่งการให้ทุกหน่วยงานของรัฐบาลกลาง ยุติการใช้เทคโนโลยีจากบริษัท Anthropic บริษัทปัญญาประดิษฐ์สัญชาติอเมริกันรายใหญ่ และผู้พัฒนา Claude โดยทันที หลังเกิดปมขัดแย้งด้านความมั่นคง

โดยทรัมป์ได้โพสต์ข้อความผ่านแพลตฟอร์ม Truth Social ว่า “เราไม่จำเป็นต้องใช้ เราไม่ต้องการ และจะไม่มีการทำธุรกิจกับพวกเขาอีกต่อไป!”

ความเคลื่อนไหวดังกล่าวเกิดขึ้นท่ามกลางความขัดแย้งอย่างรุนแรงระหว่างบริษัท Anthropic และทำเนียบขาว หลังจากทางบริษัทปฏิเสธข้อเรียกร้องของรัฐบาลที่ต้องการให้กองทัพสหรัฐฯ สามารถเข้าถึงเครื่องมือปัญญาประดิษฐ์ของบริษัทได้อย่างไม่มีเงื่อนไข ซึ่งการปฏิเสธในครั้งนี้ส่งผลให้ พีท เฮกเซธ รัฐมนตรีว่าการกระทรวงกลาโหมสหรัฐฯ ออกมาประกาศยกระดับสถานะของ Anthropic ให้เป็น “ความเสี่ยงต่อห่วงโซ่อุปทาน” (Supply Chain Risk)

การระบุชื่อในลักษณะดังกล่าว ส่งผลให้ Anthropic กลายเป็นบริษัทสัญชาติอเมริกันรายแรกในประวัติศาสตร์ที่ถูกตีตราว่าเป็นความเสี่ยงต่อความมั่นคงของประเทศอย่างเป็นทางการ

ขณะที่ทางตัวแทนของ Anthropic ได้ออกแถลงการณ์ในช่วงคืนวันศุกร์ว่า บริษัทเตรียมที่จะดำเนินการต่อสู้ทางกฎหมายเพื่อคัดค้านการกำหนดสถานะความเสี่ยงต่อห่วงโซ่อุปทานในชั้นศาลต่อไป ซึ่งถือเป็นการยกระดับความขัดแย้งระหว่างห้องปฏิบัติการปัญญาประดิษฐ์ (AI lab) แห่งนี้กับรัฐบาลของประธานาธิบดีโดนัลด์ ทรัมป์

โดยหลังจากทรัมป์ได้กำหนดระยะเวลา 6 เดือนก่อนที่จะตัด Anthropic ออกจากสัญญารัฐบาลทั้งหมด ในแถลงการณ์ Anthropic กล่าวว่ามีความประสงค์ที่จะยื่นฟ้องต่อศาลเพื่อคัดค้านคำสั่งดังกล่าว โดยระบุว่า “การข่มขู่หรือการลงโทษใดๆ จากกระทรวงสงคราม (Department of War) จะไม่สามารถเปลี่ยนแปลงจุดยืนของเราในเรื่องการสอดแนมมวลชนภายในประเทศ หรือการใช้อาวุธพิฆาตอัตโนมัติเต็มรูปแบบได้ เราจะดำเนินการคัดค้านการระบุว่าเป็นความเสี่ยงต่อห่วงโซ่อุปทานในชั้นศาล” บริษัทระบุในช่วงเย็นวันศุกร์

ย้อนรอยปมขัดแย้ง Anthropic-เพนตากอน

ย้อนกลับไปเมื่อสัปดาห์ที่ผ่านมา Anthropic บริษัทปัญญาประดิษฐ์สัญชาติอเมริกันผู้พัฒนา Claude ประกาศจุดยืนไม่ยอมถอยหลังให้แก่กระทรวงกลาโหมสหรัฐฯ (DoD) ในกรณีความขัดแย้งด้านขอบเขตการใช้งานเทคโนโลยีปัญญาประดิษฐ์ (AI)

โดยดาริโอ อโมเดอี (Dario Amodei) ประธานเจ้าหน้าที่บริหาร (CEO) ของ Anthropic ระบุเมื่อวันพฤหัสบดีที่ผ่านมา (26 กุมภาพันธ์) ว่า บริษัทเลือกจะยุติการร่วมงานกับเพนตากอน ดีกว่าที่จะยินยอมให้มีการนำเทคโนโลยีไปใช้ในลักษณะที่อาจ “บ่อนทำลายแทนที่จะปกป้องคุณค่าทางประชาธิปไตย”

ถ้อยแถลงดังกล่าวมีขึ้นเพียง 2 วันหลังจากการประชุมร่วมกับ พีท เฮกเซธ (Pete Hegseth) รัฐมนตรีว่าการกระทรวงกลาโหมสหรัฐฯ เกี่ยวกับข้อเรียกร้องให้ Anthropic ยอมรับเงื่อนไขการใช้งานเครื่องมือ AI ใน ‘ทุกกรณี’ ที่ชอบด้วยกฎหมาย โดยการหารือดังกล่าวสิ้นสุดลงด้วยการข่มขู่ว่าจะถอด Anthropic ออกจากห่วงโซ่อุปทานของ DoD

อโมเดอีเน้นย้ำว่า “คำขู่เหล่านี้ไม่สามารถเปลี่ยนจุดยืนของเราได้ เราไม่สามารถยอมรับข้อเรียกร้องดังกล่าวได้โดยไม่ละทิ้งมโนธรรม”

ประเด็นหลักที่ Anthropic วิตกกังวลคือความเป็นไปได้ในการนำโมเดล AI อย่าง ‘Claude’ ไปใช้ในสองวัตถุประสงค์หลัก ได้แก่ “การสอดแนมมวลชนภายในประเทศ” (Mass domestic surveillance) และ ‘อาวุธที่มีระบบอัตโนมัติเต็มรูปแบบ’ (Fully autonomous weapons)

โดยอโมเดอีระบุว่า กรณีการใช้งานเหล่านี้ไม่เคยระบุอยู่ในสัญญาที่ทำกับกระทรวงสงคราม (Department of War) และไม่ควรถูกบรรจุเพิ่มในขณะนี้ ทั้งนี้ ‘กระทรวงสงคราม’ เป็นชื่อเรียกรองของกระทรวงกลาโหมภายใต้คำสั่งบริหารที่ลงนามโดยประธานาธิบดีโดนัลด์ ทรัมป์ เมื่อเดือนกันยายนที่ผ่านมา

โฆษกของ Anthropic เพิ่มเติมว่า แม้ทางกระทรวงจะส่งร่างสัญญาที่มีการปรับเปลี่ยนถ้อยคำมาให้เมื่อคืนวันพุธ แต่กลับ ‘ไม่มีความคืบหน้าในทางปฏิบัติ’ ในการป้องกันไม่ให้มีการใช้ Claude เพื่อการสอดแนมชาวอเมริกันหรือใช้ในระบบอาวุธอัตโนมัติ โดยระบุว่าภาษาใหม่ที่อ้างว่าเป็น ‘การประนีประนอม’ นั้น ถูกพ่วงมาด้วยศัพท์ทางกฎหมายที่เปิดช่องให้ผู้ใช้งานสามารถละเลยมาตรการความปลอดภัยได้ตามอำเภอใจ

ในบล็อกโพสต์ของบริษัท อโมเดอีอธิบายเสริมว่า AI สามารถถูกใช้เพื่อรวบรวมข้อมูลที่กระจัดกระจายและดูไม่มีพิษมีภัย ให้กลายเป็นภาพรวมชีวิตของบุคคลใดบุคคลหนึ่งได้อย่างละเอียดโดยอัตโนมัติและในระดับมหาศาล พร้อมยืนยันว่าบริษัทสนับสนุนการใช้ AI เพื่อภารกิจข่าวกรองต่างประเทศที่ชอบด้วยกฎหมาย แต่การใช้เพื่อสอดแนมประชาชนในประเทศนั้นขัดต่อหลักการประชาธิปไตย

ในส่วนของระบบอาวุธ อโมเดอีให้ความเห็นว่า AI ในปัจจุบันยังไม่มีความเสถียรเพียงพอที่จะควบคุมอาวุธอัตโนมัติเต็มรูปแบบได้ “หากปราศจากการกำกับดูแลที่เหมาะสม อาวุธอัตโนมัติจะไม่สามารถใช้การตัดสินใจที่สำคัญได้เหมือนกับทหารที่ผ่านการฝึกฝนมาอย่างดี และเราจะไม่ส่งมอบผลิตภัณฑ์ที่ทำให้กำลังพลหรือพลเรือนชาวอเมริกันต้องตกอยู่ในความเสี่ยงโดยเจตนา”

อ้างอิง:

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...