โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

‘Guardian Agents’ กำลังมา! คาดอีก 5 ปี ครองตลาด ‘Agentic AI’ ถึง 15%

กรุงเทพธุรกิจ

อัพเดต 22 มิ.ย. 2568 เวลา 07.37 น. • เผยแพร่ 22 มิ.ย. 2568 เวลา 14.30 น.

การ์ทเนอร์ คาดการณ์ว่า ภายในอีก 5 ปี นับจากนี้ (พ.ศ. 2573) เทคโนโลยีความปลอดภัย “Guardian Agent” จะมีสัดส่วนในตลาด"Agentic AI" อย่างน้อย 10-15%

Guardian Agents คือเทคโนโลยีต่างๆ ที่ใช้ AI เป็นพื้นฐานการทำงาน ออกแบบมาเพื่อสนับสนุนและทำงานร่วมกับ AI เพื่อสร้างความน่าเชื่อถือและความปลอดภัย โดยทำหน้าที่เป็นทั้งผู้ช่วย AI ที่คอยสนับสนุนผู้ใช้ในงานต่างๆ

อาทิ การตรวจสอบเนื้อหา การติดตามและการวิเคราะห์ โดยเป็นตัวแทนหรือ Agents ที่สามารถทำงานได้แบบกึ่งอัตโนมัติหรือแบบอัตโนมัติเต็มรูปแบบ มีความสามารถในการจัดทำและดำเนินแผนการปฏิบัติงาน รวมถึงปรับเปลี่ยนเส้นทางหรือป้องกันการกระทำที่เป็นอันตราย สอดรับตามเป้าหมายที่กำหนดไว้ล่วงหน้า

เมื่อการใช้งาน Agentic AI เติบโตต่อเนื่อง จำเป็นต้องมีระบบความปลอดภัยหรือ Guardrails

จากผลสำรวจของการ์ทเนอร์ในเว็บบินาร์ เมื่อ 19 พฤษภาคม 2568 ผ่านมุมมองของผู้บริหาร CIO และหัวหน้าฝ่าย IT จำนวน 147 ราย พบว่า 24% ของผู้ตอบแบบสอบถามได้นำ AI Agents มาปรับใช้เพียงไม่กี่ตัว (น้อยกว่า 12 ตัว) ขณะที่มีเพียง 4% ที่นำ AI Agents มาใช้มากกว่า 12 ตัว

พบด้วยว่า 50% ของผู้ตอบแบบสอบถามกล่าวว่าพวกเขากำลังหาข้อมูลและทดลองใช้เทคโนโลยีชนิดนี้ ในขณะที่อีก 17% บอกว่ายังไม่ได้เริ่มทำ แต่อยู่ในขั้นวางแผนนำเทคโนโลยีนี้มาปรับใช้ในช่วงสิ้นปี 2569 เป็นอย่างช้า

การควบคุมความน่าเชื่อถือ ความเสี่ยง และความปลอดภัยแบบอัตโนมัติจำเป็นต้องทำให้ตัวแทนเหล่านี้มีความสอดคล้องและปลอดภัย ซึ่งเป็นการเร่งการเติบโตและความต้องการของ Guardian Agents ยิ่งขึ้น

อับราฮัม ลิตตัน รองประธาน นักวิเคราะห์ของการ์ทเนอร์ กล่าวว่า หากไม่ได้ควบคุมและป้องกันด้วยระบบความปลอดภัยหรือ Guardrails อย่างเหมาะสมแล้ว Agentic AI จะพาองค์กรไปสู่ผลลัพธ์ที่ไม่พึงประสงค์

Guardian Agents จะอาศัยความสามารถที่หลากหลายของ Agentic AI และเทคโนโลยีที่ขับเคลื่อนด้วย AI มาประเมินแบบกำหนดที่ใช้ AI เป็นพื้นฐาน เพื่อใช้ดูแลและจัดการความสามารถทั้งหมดของ Agent โดยสร้างสมดุลระหว่างการตัดสินใจขณะทำงานร่วมกับการจัดการความเสี่ยง

ขณะที่ยูสเคส AI Agents มีการเติบโตต่อเนื่อง ก็ยังเกิดภัยคุกคามหลายประเภทที่ส่งผลกระทบต่อการทำงานของตัว AI ตั้งแต่การจัดการข้อมูลขาเข้าและข้อมูลที่เป็นภัย ตามที่ระบบพึ่งพาชุดข้อมูลหลอกลวงหรือถูกตีความผิดๆ ตัวอย่างเช่น:

  • การแฮ็กและการละเมิดข้อมูลประจำตัว ซึ่งนำไปสู่การควบคุมที่ไม่ได้รับอนุญาตและการขโมยข้อมูล
  • AI Agents ที่โต้ตอบกับเว็บไซต์และแหล่งข้อมูลปลอมหรือผิดกฎหมาย อาจส่งผลให้เกิดการดำเนินการที่เป็นอันตราย
  • การเบี่ยงเบนของ AI Agents และพฤติกรรมที่ไม่ได้ตั้งใจอันเนื่องมาจากข้อบกพร่องภายในหรือปัจจัยกระตุ้นภายนอก อาจทำให้ชื่อเสียงองค์กรเสียหายและการดำเนินงานหยุดชะงัก

การเร่งตัวและการเพิ่มขึ้นอย่างรวดเร็วของตัวแทนด้าน AI ทำให้จำเป็นต้องมีการปรับเปลี่ยนจากเดิมที่ให้มนุษย์เป็นผู้ดูแล ซึ่งเมื่อองค์กรเดินหน้าไปสู่ระบบ Multi-Agent ที่ซับซ้อน มีการสื่อสารกันด้วยความเร็วสูง มนุษย์ไม่สามารถไล่ตามข้อผิดพลาดและกิจกรรมที่เป็นอันตรายได้ทัน บวกกับภูมิทัศน์ภัยคุกคามที่ขยายเพิ่มขึ้นนี้ องค์กรมีความจำเป็นอย่างเร่งด่วนสำหรับการนำระบบ Guardian Agents ที่สามารถช่วยดูแล ควบคุม และเพิ่มความปลอดภัยอัตโนมัติในแอปพลิเคชัน AI และ Agent อื่นๆ

ผู้บริหาร CIO และผู้นำด้านความปลอดภัย รวมถึงผู้นำด้าน AI ควรเน้นใช้งาน Guardian Agents ในบทบาท 3 ประเภทหลัก เพื่อช่วยรักษาความปลอดภัยและปกป้องการโต้ตอบร่วมกับ AI:

  • Reviewers: ระบุและตรวจสอบผลลัพธ์และเนื้อหาที่ AI สร้างขึ้นเพื่อความถูกต้องและการใช้งานที่ยอมรับได้
  • Monitors: สังเกตและติดตามการกระทำของ AI รวมถึงการดำเนินงานอัตโนมัติ (Agentic) สำหรับให้มนุษย์หรือการติดตาม AI
  • Protectors: ปรับหรือป้องกันการกระทำและสิทธิ์ของ AI และ Agent โดยใช้การกระทำอัตโนมัติระหว่างการดำเนินงาน

Guardian agents จะช่วยจัดการการโต้ตอบและค้นหาความผิดปกติไม่ว่าจะเป็นการใช้งานประเภทใดก็ตาม เป็นกุญแจดอกสำคัญของการรวมประสิทธิภาพความปลอดภัยทั้งหมดเข้าไว้ด้วยกัน

ดังที่การ์ทเนอร์คาดการณ์ว่า 70% ของแอป AI จะใช้ระบบ Multi-Agent ในปี 2571

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...