โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ต่างประเทศ

“ไมโครซอฟท์” ยืนยันเดินหน้าร่วมงาน Anthropic ต่อ แม้สหรัฐขึ้นบัญชีเสี่ยง

การเงินธนาคาร

อัพเดต 6 มีนาคม 2569 เวลา 16.49 น. • เผยแพร่ 1 ชั่วโมงที่ผ่านมา

"ไมโครซอฟท์" ยืนยันใช้เทคโนโลยี AI ของ Anthropic ในผลิตภัณฑ์และบริการสำหรับลูกค้าต่อไป ยกเว้นงานด้านกลาโหม แม้สหรัฐขึ้นบัญชีเสี่ยงเสี่ยงด้านห่วงโซ่อุปทาน

วันที่ 6 มีนาคม 2569 เวลา 08.50 น. สำนักข่าว CNBC รายงานว่า ไมโครซอฟท์ (Microsoft) เปิดเผยว่า บริษัทจะยังคงผสานเทคโนโลยีปัญญาประดิษฐ์ของสตาร์ตอัพ Anthropic ไว้ในผลิตภัณฑ์สำหรับลูกค้าต่อไป ยกเว้นเฉพาะหน่วยงานของกระทรวงกลาโหมสหรัฐ (Department of War) ภายหลังจากที่รัฐบาลสหรัฐเริ่มดำเนินมาตรการจำกัดการใช้งานเทคโนโลยีของบริษัทดังกล่าวในภาคกลาโหม

ก่อนหน้านี้ในวันเดียวกัน หน่วยงานรัฐบาลกลางได้แจ้งต่อ Anthropic ว่าจะจัดให้บริษัทเป็นความเสี่ยงต่อห่วงโซ่อุปทาน (supply-chain risk) ส่งผลให้ Anthropic ระบุว่าจะยื่นฟ้องร้องต่อศาลเพื่อท้าทายการตัดสินใจดังกล่าว

เมื่อสัปดาห์ที่ผ่านมา ประธานาธิบดีโดนัลด์ ทรัมป์ ได้เรียกร้องให้หน่วยงานรัฐบาลกลางยุติการใช้เทคโนโลยีของ Anthropic ขณะที่รัฐมนตรีว่าการกระทรวงกลาโหม พีต เฮกเซธ (Pete Hegseth) ระบุว่า Anthropic จะยังสามารถให้บริการแก่เพนตากอนได้อีกไม่เกิน 6 เดือน โดย CNBC ยังยืนยันด้วยว่า โมเดล AI ของ Anthropic มีส่วนเกี่ยวข้องกับปฏิบัติการโจมตีทางอากาศของสหรัฐต่ออิหร่านในช่วงไม่กี่วันที่ผ่านมา

ความขัดแย้งระหว่างกระทรวงกลาโหมกับ Anthropic ทวีความตึงเครียดขึ้น หลังการเจรจาเกี่ยวกับการใช้งานเทคโนโลยี AI สำหรับระบบเฝ้าระวังมวลชนภายในประเทศและอาวุธอัตโนมัติเต็มรูปแบบล้มเหลวลงเมื่อวันศุกร์ที่ผ่านมา หลังจากนั้นไม่นาน OpenAI ซึ่งเป็นคู่แข่งของ Anthropic ก็ประกาศว่าเพนตากอนตกลงนำโมเดล AI ของบริษัทไปใช้ในงานลับ (classified workloads)

ไมโครซอฟท์นับเป็นบริษัทเทคโนโลยีรายใหญ่รายแรกที่ออกมายืนยันว่าจะยังคงทำงานร่วมกับ Anthropic ต่อไปหลังจากการตัดสินใจของเพนตากอน ขณะที่บริษัทเทคโนโลยีด้านกลาโหมบางแห่งได้สั่งให้พนักงานหยุดใช้โมเดล Claude ของ Anthropic และย้ายไปใช้แพลตฟอร์มอื่นแทน

โฆษกของไมโครซอฟท์ เปิดเผยว่า ฝ่ายกฎหมายของบริษัทได้ศึกษาการจัดประเภทดังกล่าวแล้ว และสรุปว่าผลิตภัณฑ์ของ Anthropic รวมถึงโมเดล Claude ยังสามารถให้บริการแก่ลูกค้าของไมโครซอฟท์ได้ต่อไป ยกเว้นกระทรวงกลาโหม ผ่านแพลตฟอร์มต่าง ๆ เช่น Microsoft 365, GitHub และ Microsoft AI Foundry อีกทั้งบริษัทสามารถดำเนินความร่วมมือกับ Anthropic ในโครงการที่ไม่เกี่ยวข้องกับภาคกลาโหมได้

ปัจจุบันไมโครซอฟท์จัดหาเทคโนโลยีให้กับหน่วยงานรัฐบาลสหรัฐจำนวนมาก โดยซอฟต์แวร์ Microsoft 365 ถูกใช้อย่างแพร่หลายภายในกระทรวงกลาโหม ทั้งนี้ เมื่อเดือนกันยายนที่ผ่านมา ไมโครซอฟท์ประกาศผสานโมเดล generative AI ของ Anthropic เข้ากับบริการ Microsoft 365 Copilot สำหรับผู้ใช้ Microsoft 365 ควบคู่กับโมเดลจาก OpenAI

โมเดล Claude ของ Anthropic ยังได้รับความนิยมในหมู่วิศวกรซอฟต์แวร์สำหรับการเขียนโค้ด และถูกนำมาใช้งานในบริการพัฒนาโปรแกรม GitHub Copilot ร่วมกับโมเดล Codex ของ OpenAI

ในช่วงแรก ซีอีโอของไมโครซอฟท์ ซัตยา นาเดลลา (Satya Nadella) มุ่งเน้นการลงทุนและความร่วมมืออย่างใกล้ชิดกับ OpenAI แต่ในช่วงหลัง บริษัทได้เปิดโอกาสให้โมเดล AI จากผู้พัฒนาหลายรายเข้ามาใช้งานในผลิตภัณฑ์ของตน

นาเดลลาเคยโพสต์บนแพลตฟอร์ม X เมื่อเดือนตุลาคมว่า “Model choice!” พร้อมแสดงความสามารถของ Microsoft 365 Copilot ที่ให้ผู้ใช้สลับเลือกใช้งานโมเดลระหว่าง Anthropic และ OpenAI ได้

ในเดือนพฤศจิกายน ไมโครซอฟท์เปิดเผยว่า Anthropic ได้ตกลงใช้บริการคลาวด์ Azure ของไมโครซอฟท์มูลค่า 30,000 ล้านดอลลาร์ ขณะที่ไมโครซอฟท์ก็ให้คำมั่นว่าจะลงทุนใน Anthropic สูงสุด 5,000 ล้านดอลลาร์

อย่างไรก็ตามขนาดความร่วมมือกับ OpenAI ยังมีมูลค่าสูงกว่า โดย ณ เดือนตุลาคมที่ผ่านมา ไมโครซอฟท์ถือหุ้นในบริษัท OpenAI มูลค่าประมาณ 135,000 ล้านดอลลาร์ และ OpenAI มีแผนใช้บริการ Azure ของไมโครซอฟท์รวมมูลค่าถึง 250,000 ล้านดอลลาร์ในอนาคต

อ้างอิง : www.cnbc.com

อ่านข่าวที่เกี่ยวข้อง

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...