เร้ดแฮท เปิดตัว Red Hat OpenShift AI ช่วยองค์กรพัฒนา AI ได้ทุก Environment
เร้ดแฮท เปิดตัว Red Hat OpenShift AI ยกระดับความยืดหยุ่นในการใช้งาน Generative AI บน Hybrid Cloud ช่วยองค์กรต่าง ๆ จับคู่เวิร์กโหลดอัจฉริยะที่กำลังเติบโตอย่างรวดเร็ว ใช้งานได้ทั้งดาต้าเซ็นเตอร์ภายในองค์กรไปจนถึง Multi Public Cloud
Red Hat (เร้ดแฮท) เปิดตัวRed Hat OpenShift AI แพลตฟอร์มปัญญาประดิษฐ์ (AI) และแมชชีนเลิร์นนิ่ง (ML) แบบโอเพ่นไฮบริดที่อยู่บนRed Hat OpenShift ซึ่งช่วยให้องค์กรสร้างและให้บริการแอปพลิเคชัน AI ได้เพียงพอต่อการใช้งานบนไฮบริดคลาวด์ทุกระบบ
นางสาวสุพรรณี อำนาจมงคล ผู้จัดการประจำประเทศไทย เร้ดแฮท เปิดเผยว่า การอัปเดตครั้งนี้ย้ำวิสัยทัศน์ด้าน AI ของเร้ดแฮท และนำความมุ่งมั่นของเร้ดแฮทไปช่วยให้ลูกค้าได้เข้าสู่โลกของเวิร์กโหลดอัจฉริยะ ตั้งแต่ฮาร์ดแวร์พื้นฐาน ไปจนถึงบริการและเครื่องมือต่าง ๆ เช่น Jupyter และ PyTorch ที่สร้างบนแพลตฟอร์มนี้ ช่วยให้สร้างนวัตกรรมได้เร็วขึ้น เพิ่มผลผลิต และสามารถนำ AI มาใช้ในการดำเนินธุรกิจประจำวัน ผ่านแพลตฟอร์มโอเพ่นซอร์สที่ยืดหยุ่นที่ปรับและสเกลได้ ซึ่งช่วยให้ได้ใช้ทั้งโมเดลการคาดการณ์ (predictive model) และโมเดลการสร้างสรรค์ (generative model) โดยจะใช้หรือไม่ใช้คลาวด์ก็ได้
“ลูกค้าต้องเผชิญความท้าทายหลายประการ เมื่อจะนำโมเดล AI ที่ทดลองไปใช้งานจริง เช่น ค่าใช้จ่ายด้านฮาร์ดแวร์ที่เพิ่มขึ้น ความกังวลเกี่ยวกับความเป็นส่วนตัวของข้อมูล และขาดความมั่นใจที่จะแชร์ข้อมูลของตนกับโมเดลที่เป็น SaaS การที่ Generative AI (GenAI) พัฒนาและเปลี่ยนแปลงอย่างรวดเร็ว ทำให้องค์กรจำนวนมากต้องการสร้าง core AI platform ที่เชื่อถือได้และสามารถรันได้ทั้งบนระบบที่อยู่ในองค์กร (on-preimse) หรือบนคลาวด์”
นางสาวสุพรรณีกล่าวต่อว่า ข้อมูลจาก IDC1 ระบุว่า การจะใช้ประโยชน์จาก AI ให้ประสบความสำเร็จได้นั้น องค์กรต่าง ๆ ต้องปรับ แอปพลิเคชั่นจำนวนมากที่มีอยู่ รวมถึงสภาพแวดล้อมของข้อมูลให้ทันสมัย ต้องขจัดอุปสรรคระหว่างระบบที่ใช้อยู่และแพลตฟอร์มด้านการจัดเก็บข้อมูล ควรเพิ่มความยั่งยืนให้กับโครงสร้างพื้นฐานไอที และต้องมีความระมัดระวังในการเลือกว่าจะวางเวิร์กโหลดแต่ละประเภทไว้ ณ ที่ใด เช่น วางไว้บนคลาวด์ ในดาต้าเซ็นเตอร์ หรือที่เอดจ์ (edge) จากประเด็นดังกล่าวนี้ แสดงให้เห็นว่าแพลตฟอร์ม AI ทั้งหลายจะต้องมีความยืดหยุ่นเพื่อสนับสนุนองค์กรที่กำลังจะนำ AI มาใช้ รวมถึงสนับสนุนความต้องการและทรัพยากรต่าง ๆ ได้อย่างเหมาะสม
สำหรับกลยุทธ์ AI ของเร้ดแฮทช่วยให้เกิดความยืดหยุ่นในการใช้ไฮบริดคลาวด์ มอบความสามารถในการเพิ่มประสิทธิภาพโมเดลพื้นฐานที่ได้รับการเตรียมหรือเทรนด์ล่วงหน้า (pre-trained) ด้วยข้อมูลของลูกค้า และให้อิสระในการใช้ตัวเร่ง (accelerators) ฮาร์ดแวร์และซอฟต์แวร์ที่หลากหลาย Red Hat OpenShift AI มีฟีเจอร์และประสิทธิภาพใหม่ ๆ ที่ตอบความต้องการเหล่านี้ผ่านการใช้นวัตกรรม AI/ML ล่าสุด และได้รับการสนับสนุนจากพันธมิตรที่เน้นเรื่อง AI อย่างกว้างขวาง แพลตฟอร์มเวอร์ชั่นล่าสุด คือ Red Hat Openshift AI 2.9 ประกอบด้วย
1. Model serving at the edge
โมเดลที่พร้อมใช้งานจริงได้ทันทีที่ edge นี้ เป็นการขยายการใช้โมเดล AI ไปยังสถานที่ห่างไกลโดยการใช้ single-node OpenShift เพื่อมอบความสามารถในการอนุมานในสภาพแวดล้อมที่มีทรัพยากรจำกัดด้วยการเข้าใช้เน็ตเวิร์กเป็นช่วง ๆ หรือ air-gapped network ฟีเจอร์ที่เป็น technology preview นี้ ช่วยให้องค์กรดำเนินงานได้อย่างสม่ำเสมอและปรับขนาดได้ ใช้ได้ตั้งแต่ core ไปยัง cloud ไปยัง edge รวมถึงความสามารถในการสังเกตติดตามที่พร้อมใช้งานเต็มรูปแบบโดยไม่ต้องปรับจูนเพิ่มเติม (out-of-the-box observability)
2. Enhanced model serving: model serving
มีการเพิ่มประสิทธิภาพด้วยความสามารถในการใช้ model server หลายตัว ทั้ง predictive และ GenAI, ทั้งยังรองรับ KServe ซึ่งเป็น Kubernetes custom resource definition ที่ผสานการให้บริการโมเดลทุกประเภทเข้าด้วยกัน, รองรับ vLLM และ text generation inference server (TGIS), ให้บริการเอนจินสำหรับ LLMs และ Caikit-nlp-tgis runtime ซึ่งใช้บริหารจัดการโมเดลและงานประมวลผลภาษาธรรมชาติ (NLP) ต่าง ๆ ประสิทธิภาพของ model serving ที่เพิ่มขึ้นนี้ ช่วยให้ผู้ใช้รัน predictive และ GenAI บนแพลตฟอร์มเพียงหนึ่งเดียวเพื่อการใช้งานได้หลายกรณี ช่วยลดค่าใช้จ่าย และทำงานง่ายขึ้น เป็น model serving ที่พร้อมใช้สำหรับ LLMs และช่วยลดความซับซ้อนที่เกี่ยวข้องกับเวิร์กโฟลว์ให้กับผู้ใช้งาน
3. Distributed workloads with Ray
โดยใช้ CodeFlare และ KubeRay ซึ่งใช้ cluster nodes หลายตัวเพื่อให้ประมวลผลและเทรนด์โมเดลได้เร็วขึ้น Ray คือเฟรมเวิร์กที่ช่วยให้การทำงานของ AI workloads ง่ายขึ้น ส่วน KubeRay ช่วยจัดการเวิร์กโหลดเหล่านั้นบน Kubernetes ทั้งนี้ CodeFlare เป็นศูนย์กลางที่รวมความสามารถด้าน distributed workloads ของ Red Hat OpenShift AI โดยให้บริการเฟรมเวิร์กที่ใช้งานง่ายและช่วยลดความซับซ้อนในการผสานการทำงานและการมอนิเตอร์ ความสามารถในการจัดคิวและการบริหารแบบรวมศูนย์นี้ ช่วยให้ใช้โหนดต่าง ๆ ได้อย่างเหมาะสม และช่วยจัดสรรทรัพยากรต่าง ๆ เช่น จัดสรร GPUs ได้ตรงความต้องการของผู้ใช้และเวิร์กโหลด
4. Improved model development
ปรับปรุงการพัฒนาโมเดลผ่าน project workspaces และเพิ่ม workbench images ซึ่งช่วยมอบความยืดหยุ่นในการใช้ IDEs และชุดเครื่องมือต่าง ๆ ให้นักวิทยาศาสตร์ข้อมูล เช่น VS Code และ RStudio ปัจจุบันมีให้บริการในรูปแบบ technology preview และเพิ่มประสิทธิภาพ CUDA เพื่อกรณีใช้งานและประเภทโมเดลที่หลากหลาย
5. Model monitoring visualizations
แสดงภาพการมอนิเตอร์โมเดล เพื่อให้ได้ทราบถึงประสิทธิภาพและตัวชี้วัดการทำงาน ปรับปรุงความสามารถในการติดตามสังเกตสมรรถนะการทำงานของโมเดล AI
6. New accelerator profiles
ช่วยให้ผู้ดูแลระบบตั้งค่าฮาร์ดแวร์แต่ละประเภทที่พร้อมสำหรับการพัฒนาโมเดลและ model-serving workflows โดยให้ผู้ใช้เข้าถึงประเภท accelerator ที่เหมาะกับเวิร์กโหลดที่เจาะจงได้ด้วยตนเองและไม่ยุ่งยาก
นอกจากRed Hat OpenShift AI ที่สนับสนุน watsonx.ai ของ IBM แล้ว องค์กรที่อยู่ในอุตสาหกรรมทุกประเภทสามารถติดอาวุธตัวเองด้วย Red Hat OpenShift AI เพื่อขับเคลื่อนนวัตกรรมและการเติบโตด้าน AI ได้มากขึ้น ตัวอย่างองค์กร เช่น AGESIC และ Ortec Finance