โปรดอัพเดตเบราว์เซอร์

เบราว์เซอร์ที่คุณใช้เป็นเวอร์ชันเก่าซึ่งไม่สามารถใช้บริการของเราได้ เราขอแนะนำให้อัพเดตเบราว์เซอร์เพื่อการใช้งานที่ดีที่สุด

ไอที

การ์ทเนอร์ คาดภายในปี 71 องค์กรกว่าครึ่งจะใช้มาตรการ Zero-Trust Data Governance รับมือการเพิ่มขึ้นของข้อมูล AI ที่ไม่ถูกตรวจสอบ กระทบธุรกิจและการเงิน

BTimes

อัพเดต 10 ชั่วโมงที่ผ่านมา • เผยแพร่ 17 ชั่วโมงที่ผ่านมา • อัพเดตข่าวหุ้น ธุรกิจ การเงิน การลงทุน การตลาด การค้า สุขภาพ กับ บัญชา ชุมชัยเวทย์ - BTimes.Biz

การ์ทเนอร์ อิงก์ บริษัทวิจัยและให้คำปรึกษาชั้นนำด้านธุรกิจและเทคโนโลยี ระบุว่าภายในปี 2571 ครึ่งหนึ่ง (50%) ขององค์กรจะนำมาตรการ "Zero-Trust" มาใช้เพื่อกำกับดูแลข้อมูล (Data Governance) และรับมือกับการแพร่กระจายของข้อมูลที่สร้างโดย AI (AI-Generated Data) ที่ยังไม่ได้รับการตรวจสอบ

หวัน ฟุ่ย ชาน (Wan Fui Chan) รองประธานบริหารการ์ทเนอร์ กล่าวว่า “องค์กรไม่สามารถเชื่อถือข้อมูลหรือคิดเอาเองว่าข้อมูลนั้นถูกสร้างโดยน้ำมือมนุษย์ได้อีกต่อไป เมื่อข้อมูลที่สร้างโดย AI เผยแพร่กระจายออกไปจนทำให้เราแยกแยะไม่ออกจากข้อมูลที่มนุษย์สร้างขึ้น ดังนั้นการนำมาตรการ Zero-Trust มาใช้ เพื่อสร้างระบบยืนยันตัวตนและตรวจสอบข้อมูล จึงเป็นเรื่องจำเป็นอย่างยิ่งสำหรับปกป้องผลลัพธ์ทางธุรกิจและการเงิน”

ข้อมูล AI เพิ่มความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) และการปฏิบัติตามกฎระเบียบ

โดยปกติแล้ว โมเดลภาษาขนาดใหญ่ (LLMs) จะได้รับการฝึกฝนด้วยข้อมูลที่รวบรวมมาจากเว็บ (Web-Scraped Data) รวมถึงหนังสือ แหล่งรวมโค้ด และงานวิจัย ซึ่งแหล่งข้อมูลเหล่านี้บางส่วนมีเนื้อหาที่ AI สร้างขึ้นปะปนอยู่แล้ว และหากแนวโน้มนี้ยังดำเนินต่อไป ในที่สุดแหล่งข้อมูลเกือบทั้งหมดก็จะเต็มไปด้วยข้อมูลที่ AI สร้างขึ้นมา

จากผลสำรวจ 2026 Gartner CIO and Technology Executive Survey พบว่า 84% ของผู้ตอบแบบสอบถามคาดว่าในปี 2569 องค์กรของตนจะเพิ่มงบประมาณด้าน GenAI ซึ่งหมายความว่าโมเดล LLM รุ่นต่อ ๆ ไปจะได้รับการฝึกด้วย "ผลลัพธ์จากโมเดลรุ่นก่อนหน้า" มากขึ้นเรื่อย ๆ ทำให้เกิดความเสี่ยงต่อภาวะการล่มสลายของโมเดล (Model Collapse) หรือการที่ AI ให้คำตอบบิดเบือนไปจากความเป็นจริง

“เมื่อข้อมูลที่สร้างจาก AI แพร่หลายมากขึ้นทำให้บางประเทศในบางภูมิภาคเข้มงวดกับกฎระเบียบมากขึ้นเพื่อบังคับให้ต้องมีการตรวจสอบข้อมูลว่า "ปลอด AI" (AI-Free) อย่างไรก็ตาม บางประเทศอาจพยายามบังคับใช้การควบคุมที่เข้มงวดกว่าสำหรับเนื้อหา AI ขณะที่บางแห่งอาจใช้วิธีการที่ยืดหยุ่นกว่า” ชานกล่าวเสริม

"ในสภาพแวดล้อมด้านกฎระเบียบที่เปลี่ยนไปนี้ องค์กรต้องมีเครื่องมือสำหรับระบุและติดตามข้อมูลที่สร้างจาก AI โดยจะสำเร็จหรือไม่นั้นขึ้นอยู่กับการมีเครื่องมือที่เหมาะสมและมีบุคลากรที่มีทักษะในการจัดการข้อมูลและองค์ความรู้ รวมถึงมีโซลูชันการจัดการเมตาดาต้า (Metadata) หรือข้อมูลที่ใช้อธิบายชุดข้อมูล ซึ่งจำเป็นอย่างยิ่งต่อการคัดแยกประเภทข้อมูล”

แนวทางปฏิบัติด้านการจัดการเมตาดาต้าเชิงรุก (Active Metadata Management) จะกลายเป็นปัจจัยสำคัญที่สร้างความต่าง ช่วยให้องค์กรสามารถวิเคราะห์ แจ้งเตือน และตัดสินใจเกี่ยวกับสินทรัพย์ข้อมูลได้แบบอัตโนมัติ

วิธีจัดการความเสี่ยงเพื่อรับมือกับข้อมูล AI ที่ไม่ได้รับการตรวจสอบและทวีปริมาณมากขึ้น

การ์ทเนอร์แนะนำองค์กรธุรกิจควรปรับใช้กลยุทธ์ ดังนี้:

แต่งตั้งผู้นำด้านการกำกับดูแล AI หรือ AI Governance Leader: กำหนดบทบาทหน้าที่อย่างชัดเจนเพื่อดูแลนโยบาย Zero-Trust, การจัดการความเสี่ยงจาก AI และการปฏิบัติตามกฎระเบียบ โดยทำงานร่วมกับทีมข้อมูลและการวิเคราะห์ (D&A) เพื่อให้มั่นใจได้ว่าทั้งข้อมูลและระบบมีความพร้อมสำหรับ AI และสามารถจัดการกับเนื้อหาที่สร้างโดย AI ได้

ส่งเสริมความร่วมมือข้ามสายงาน: สร้างทีมที่ทำงานสอดประสาน ประกอบด้วยฝ่ายความมั่นคงปลอดภัยไซเบอร์ (Cybersecurity) และฝ่ายข้อมูลและการวิเคราะห์ (D&A) รวมถึงผู้เกี่ยวข้องในฝ่ายอื่น ๆ เพื่อประเมินความเสี่ยงว่าข้อมูลที่ AI สร้างขึ้นกระทบต่อธุรกิจอย่างไรบ้าง และนโยบายเดิมที่ใช้อยู่เพียงพอหรือจำเป็นต้องมองหากลยุทธ์ใหม่ขึ้นมาทดแทน

นำนโยบายธรรมาภิบาลเดิมที่มีอยู่มาปรับใช้: ต่อยอดจากกรอบการทำงานเดิม โดยปรับปรุงเรื่องความปลอดภัย การจัดการข้อมูลที่ใช้อธิบายข้อมูล (Metadata) และนโยบายด้านจริยธรรมให้ครอบคลุมความเสี่ยงใหม่ ๆ ที่เกิดจากข้อมูลที่สร้างโดย AI

นำการจัดการ Metadata เชิงรุก หรือ Active Metadata Practices มาใช้: เพื่อให้มีระบบแจ้งเตือนแบบ Real-time เมื่อข้อมูลล้าสมัยหรือต้องมีการตรวจสอบซ้ำ ช่วยให้องค์กรไหวตัวทันเมื่อระบบสำคัญกำลังเผชิญหน้ากับข้อมูลที่ไม่ถูกต้องหรือมีอคติ

ดูข่าวต้นฉบับ
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...