1 สิงหาคม 2568
Generative AI กำลังมีบทบาทในทุกอุตสาหกรรม เพราะสามารถพลิกโฉมการดำเนินธุรกิจได้อย่างมหาศาล ไม่ว่าจะเป็นการเพิ่มประสิทธิภาพการทำงาน การยกระดับประสบการณ์ของลูกค้า หรือแม้แต่การเสริมความปลอดภัยให้กับองค์กร การไม่เริ่มนำ GenAI มาใช้ตั้งแต่วันนี้ อาจทำให้ธุรกิจเสียเปรียบในตลาดที่ขับเคลื่อนด้วยนวัตกรรมอย่างรวดเร็ว อย่างไรก็ตาม ในขณะที่หลายองค์กรเริ่มวางกลยุทธ์ด้าน GenAI จึงเกิดคำถามสำคัญว่า “องค์กรของคุณมีโครงสร้างพื้นฐานและบุคลากรที่พร้อมสำหรับการใช้งาน ดูแล และติดตามระบบ GenAI แล้วหรือยัง?”
ในงาน Nutanix .NEXT 2024 ที่เปิดตัวแพลตฟอร์ม AI GPT-in-a-Box 2.0 หนึ่งในโซลูชันที่เปิดตัวพร้อมกัน คือ Nutanix Enterprise AI เป็นโซลูชันที่ช่วยให้องค์กรสามารถใช้งาน Generative AI ได้อย่างคล่องตัว ด้วยความสามารถในการติดตั้งและใช้งาน LLM (Large Language Models) จากผู้ให้บริการชั้นนำได้อย่างยืดหยุ่น พร้อมทั้งสร้างและบริหารจัดการ API ที่ปลอดภัย สำหรับเชื่อมต่อกับแอปพลิเคชัน GenAI ขององค์กรได้อย่างมั่นใจ
โซลูชัน GPT-in-a-Box 2.0 มอบสแต็ก AI ระดับองค์กรแบบครบวงจรสําหรับระบบคลาวด์ส่วนตัวของคุณ ทั้งที่เอดจ์หรือ On Premise ซึ่งมีความยืดหยุ่นและปลอดภัย Nutanix Enterprise AI ช่วยเพิ่มพลังให้กับการดําเนินงานดูแลระบบหลังติดตั้ง สําหรับ LLM ที่คุณเลือกใน GPT-in-a-Box หรือที่ใดก็ได้ที่คุณใช้งาน Kubernetes แม้กระทั่งในระบบ Public Cloud
• การเปลี่ยนทรัพยากรไอทีให้เป็นทรัพยากร AI
ด้วย Workflow ที่เรียบง่ายและฟังก์ชันทดสอบในตัว แม้แต่บุคลากรด้าน IT ที่เพิ่งเริ่มเรียนรู้การดูแลระบบ GenAI ก็สามารถเรียนรู้และใช้งานได้อย่างรวดเร็ว
• ลดความซับซ้อนของการติดตั้งและการดําเนินงาน LLM
อินเทอร์เฟซผู้ใช้ที่เรียบง่ายทําให้ง่ายต่อการติดตั้ง ใช้งาน และตรวจสอบ LLM และรักษาความปลอดภัย Endpoint ด้วยการจัดการเพียงแค่คลิ๊กเมาส์ สําหรับการควบคุมการเข้าถึงตามบทบาท
• มีประสิทธิภาพสูงและผ่านการรับรองจาก NVIDIA AI
Nutanix Enterprise AI สามารถทํางานบนอินสแตนซ์ที่เร่งความเร็วของ NVIDIA บน AWS, Azure, Google Cloud และยังได้รับการรับรองด้วยซอฟต์แวร์ NVIDIA AI Enterprise ซึ่งรวมถึงไมโครเซอร์วิส NVIDIA NIM สําหรับโมเดลพื้นฐานยอดนิยม และ NVIDIA AI Blueprints ที่เป็นเวิร์กโฟลว์อ้างอิงสําหรับกรณีการใช้งาน AI เชิงกําเนิดแบบบัญญัติ ยังสามารถใช้กับ GPT-in-a-Box เพื่อขยายกรณีการใช้งานที่รองรับ
• เป็นทางเลือกสําหรับ AI ขององค์กร
Nutanix Enterprise AI สามารถปรับใช้บนแพลตฟอร์ม Kubernetes ที่ได้รับการรับรองจาก CNCF รวมถึง Nutanix Kubernetes Platform. สามารถใช้ประโยชน์จาก LLM ที่ระบุไว้กับ NVIDIA NIM, Hugging Face หรือแม้แต่การจัดหา LLM แบบกําหนดได้ของคุณเอง
Nutanix Enterprise AI รองรับการใช้งานบน Public Cloud ซึ่งเป็นตัวเลือกหลักสำหรับองค์กรที่ต้องการนำโมเดลและข้อมูลของตนไปใช้งานในสภาพแวดล้อมที่ปลอดภัย และสามารถเลือกตำแหน่งจัดเก็บข้อมูลได้ตามความต้องการ Nutanix Enterprise AI เข้ากันได้อย่างสมบูรณ์กับการประมวลผลแบบเร่งความเร็วของ NVIDIA ที่มีอยู่บน AWS, Microsoft Azure และ Google Cloud อีกทั้งสามารถทํางานบน Public Cloud ที่ Kubernetes ทํางานได้ สำหรับ Google Cloud นั้น Nutanix Enterprise AI จะทํางานบน GKE (Google Kubernetes Engine) ซึ่งมอบความสามารถใหม่ๆ ให้กับแพลตฟอร์ม Nutanix ความเป็นไปได้ใหม่ๆ เหล่านี้เปิดประตูสู่การใช้งาน GenAI ในแบบของคุณได้ทุกที่
ลูกค้าจํานวนมากจึงใช้ Public Cloud เป็นแพลตฟอร์มที่ใช้พัฒนาและทดสอบการทำงานของ GenAI Nutanix Enterprise AI ช่วยลดความยุ่งยากในการติดตั้งและพัฒนาโมเดล AI ทําให้โมเดลการทดสอบและแอป GenAI รวดเร็วและมีประสิทธิภาพบน VPC ของ Public Cloud
บริการ Public Cloud ไม่สามารถนำ Workload ของ GenAI นอก Public Cloud ได้ กรณีการใช้งาน Edge, On Premise หรือระบบที่แยกจากเครือข่ายภายนอก จะต้องหาโซลูชันอื่นๆ แต่การใช้ Nutanix Enterprise AI สามารถส่งมอบการดําเนินงานที่สม่ําเสมอในสภาพแวดล้อมมัลติคลาวด์แบบไฮบริด
NVIDIA NIM เป็นส่วนหนึ่งของ NVIDIA AI Enterprise ให้บริการไมโครเซอร์วิสสําหรับโมเดล AI ที่ได้รับการเทรนและปรับแต่งได้ทั่วทั้งระบบคลาวด์, Data Center และ Workstations เมื่อจับคู่กับอินเทอร์เฟซที่เรียบง่ายของ Nutanix Enterprise AI และ Endpoint ที่ปลอดภัย ผลลัพธ์จะมีประสิทธิภาพ ได้เป็นโซลูชัน GenAI ที่สมบูรณ์และรวดเร็ว ซึ่งสามารถปรับใช้ได้ทุกที่ตั้งแต่ Edge ไปจนถึงคลาวด์สาธารณะ
การเลือกใช้ NVIDIA NIM microservices ช่วยให้การเชื่อมต่อระบบต่าง ๆ สำหรับแอปพลิเคชัน AI, เฟรมเวิร์กสำหรับพัฒนา และเวิร์กโฟลว์ เป็นเรื่องง่ายและปลอดภัย พร้อมทั้งรองรับการปรับแต่งประสิทธิภาพของการประมวลผล AI (model inferencing) บน GPU ได้อย่างเต็มประสิทธิภาพ. NIM ทํางานได้ทุกที่ ทั้ง On Premiseและในระบบคลาวด์ และสามารถปรับใช้กับ Nutanix Enterprise AI บน Nutanix GPT-in-a-Box, AWS, Google และ Azure นอกจากช่วยให้เวิร์กโฟลว์สามารถย้ายข้ามโครงสร้างพื้นฐานแบบไฮบริดได้อย่างยืดหยุ่นแล้ว NIM ทำให้ต้นทุนการดําเนินงานที่ลดลงด้วยรันไทม์ของโมเดลที่ได้รับการปรับให้เหมาะสมอย่างต่อเนื่องเพื่อให้ได้ความหน่วงต่ำและอัตราประมวลผลสูงบน HCI ของ Nutanix ที่มีประสิทธิภาพ
Nutanix Enterprise AI ใช้งานง่ายและสามารถอธิบายได้ในสี่ขั้นตอน
สำหรับ Nutanix Kubernetes Platform สามารถติดตั้ง Nutanix Enterprise AI ได้ทันที แต่คุณสามารถติดตั้งได้ด้วยตนเองโดยใช้ระบบ Kubernetes อื่นๆ เช่น Google Cloud GKE, AWS EKS และ Microsoft Azure AKS จึงต้องมี GPUs ที่จําเป็นเพียงพอกับการติดตั้ง
Take Notes: ความสมบูรณ์ของคลัสเตอร์ Kubernetes และสถิติที่สําคัญ เช่น การใช้งาน GPU สามารถตรวจสอบได้ในแดชบอร์ด Nutanix Enterprise AI ภายใน 'สรุปโครงสร้างพื้นฐาน' ในฐานะผู้ดูแลระบบ Nutanix Enterprise AI ยังสามารถทํางานในระบบปิดหรือแยกจากเครือข่ายภายนอกสําหรับ LLMOps ที่ปลอดภัยซึ่งต้องการการดําเนินการแบบไม่ผูกมัด
ผู้ใช้ที่ไม่ใช่ admin ยังสามารถปรับใช้โมเดลและสร้าง API Endpoints โดยใช้การควบคุมการเข้าถึงตามบทบาท (RBAC) ที่เชื่อมโยงกับผู้ใช้แต่ละคน Nutanix Enterprise AI มีการรวมกับ NVIDIA NIM (โดยใช้แคตตาล็อก NVIDIA NGC) และ Hugging Face คุณสามารถอัปโหลดโมเดลของคุณเองที่ปรับแต่งมาเฉพาะได้เช่นกัน
ระบบจะมีตัวช่วยนำทางคุณผ่านขั้นตอนการจัดเก็บโมเดลอย่างเป็นลำดับ
Take Notes: NVIDIA NIM และ Hugging Face ต้องใช้คีย์ API ที่สร้างขึ้นบนแพลตฟอร์มของตนเพื่อใช้โมเดลของตน ซึ่งคีย์ API และโมเดลที่ดาวน์โหลดจะถูกเก็บไว้ใน Nutanix Enterprise AI
ทุกขั้นตอนได้รับการออกแบบให้เรียบง่าย ตั้งแต่การตั้งชื่อ Endpoint ไปจนถึงการเลือกโมเดลที่เชื่อมโยงกับผู้ใช้งาน การสร้าง API ก็เป็นส่วนหนึ่งของกระบวนการนี้ ซึ่งสามารถทำได้ภายในไม่กี่คลิกเท่านั้น เมื่อได้ API Key แล้ว คุณสามารถจัดเก็บหรือแชร์ผ่านระบบจัดการความลับ (Secrets Manager) ที่คุณใช้งานอยู่ได้ทันที
Take Notes: เมื่อสร้าง API ระบบจะแสดง API Key เพียงครั้งเดียวใน Window ซึ่งผู้ใช้งานจะต้องจดบันทึกไว้ทันที เนื่องจากจะไม่สามารถเรียกดูซ้ำได้อีก เพื่อเหตุผลด้านความปลอดภัย ผู้ดูแลสามารถสร้างบัญชีผู้ใช้แยกแต่ละราย เพื่อให้แต่ละคนสามารถเข้าถึง Nutanix Enterprise AI ได้อย่างเป็นอิสระ โดยผู้ใช้แต่ละรายจะสามารถปรับใช้และจัดการเฉพาะโมเดลและ API ของตนเองเท่านั้น หากจำเป็น ผู้ดูแลระบบสามารถเพิกถอนหรือปิดการใช้งานคีย์และโมเดลของผู้ใช้งานแต่ละรายได้อย่างง่ายดาย
ลองนึกถึงสิ่งนี้เหมือนกับการใช้บริการ GenAI ทั่วไปของคุณ - คุณถามคําถาม มันจะสอบถามโมเดล AI และคุณจะได้รับคําตอบที่สร้างขึ้น การตรวจสอบความถูกต้องนี้ช่วยให้แน่ใจว่า API ปลายทางทํางานและโมเดลทํางานได้อย่างถูกต้อง จากนั้นสามารถส่งคีย์ API ไปยังนักพัฒนาหรือเจ้าของแอปพลิเคชัน GenAI เพื่อให้เข้าถึงโมเดล AI (LLM)
Take Notes: หากจําเป็นต้องเปลี่ยนแปลงโมเดลหรือ Endpoint API (เช่น มีการร้องขอโมเดลใหม่หรือเพิกถอน API) ทั้งสองอย่างจะต้องได้รับการอัปเดต/ลบแล้วสร้างใหม่สําหรับแอปพลิเคชัน (เปลี่ยนคีย์ API ใหม่) กระบวนการนี้ใช้เวลาเพียงไม่กี่นาทีและสามารถทําได้ภายในช่วงกรอบเวลา Maintenance
ด้วย Nutanix Enterprise AI การปรับใช้ LLM และสร้าง API ที่ปลอดภัยสามารถทำได้ผ่านการคลิกเมาส์ ไม่ต้องเสียเวลาเรียนรู้คำสั่งใหม่หรือจัดการกับฟีเจอร์ที่ซับซ้อน เมื่อองค์กรเริ่มนำ AI มาใช้งาน บุคลากรด้าน IT สามารถปรับตัวและเพิ่มศักยภาพเพื่อรองรับงานด้าน AI ได้อย่างรวดเร็วด้วยเครื่องมือจาก Nutanix Enterprise AI
เมื่อ AI เริ่มเข้ามาเป็นส่วนหนึ่งของเทคโนโลยีในองค์กรอย่างต่อเนื่อง การที่องค์กรมีความสามารถในการเปลี่ยนทรัพยากรด้าน IT ให้รองรับงานด้าน AI การดูแลระบบ AI (โดยเฉพาะ LLM) อย่างเรียบง่าย มีความยืดหยุ่นต่อการเปลี่ยนแปลงครั้งใหญ่ของเทคโนโลยี GenAI ไม่ใช่แค่เรื่องที่ “ควรมี” แต่เป็นสิ่งที่ “จำเป็นต้องมี” ด้วยโซลูชัน Nutanix GPT-in-a-Box 2.0 ควบคู่ไปกับ Nutanix Enterprise AI จะทำให้ AI ของคุณทรงพลังยิ่งขึ้นในฐานะสแต็กที่ผ่านการตรวจสอบแล้ว พร้อมการดําเนินงานโครงสร้างพื้นฐาน และบริการที่คล่องตัวเพื่อให้คุณเริ่มต้นปรับใช้ AI ขององค์กรได้แล้ว ตั้งแต่วันนี้