DDN Storage
SFA200X2/SFA400X2
DDN Storage Fusion Architecture® (SFA®) เป็น Storage ที่ถูกออกแบบมาโดยเฉพาะ เพื่อมอบประสิทธิภาพและความจุของ Flash Storage ที่สามารถปรับขนาดได้ตามความต้องการของธุรกิจที่เปลี่ยนแปลงตลอดเวลา โดยแพลตฟอร์ม SFA NVMe นี้มาพร้อมกับเทคโนโลยี NVMe 100% และมีตัวเลือกการเชื่อมต่อความเร็วสูงที่หลากหลาย
ด้วยความเร็วสูงสุดถึง 90GB/s ทำให้ SFA ขนาด 2U (ทั้งรุ่น NVMe-only และ Hybrid) เป็นสตอเรจโซลูชันที่เร็วที่สุด สามารถรองรับ NVMe SSD ได้สูงสุดถึง 24 ตัว ภายใต้ขนาดตัวเครื่องที่มีความกะทัดรัดที่สุด ตัวเครื่องขับเคลื่อนด้วยหน่วยประมวลผล 3rd Gen Intel® Xeon® Scalable ซึ่งความหนาแน่นของประสิทธิภาพในระดับสูงสุดนี้ ทำให้แพลตฟอร์ม SFA NVMe เหมาะอย่างยิ่งสำหรับดาต้าเซ็นเตอร์ที่มีพื้นที่จำกัด แต่ต้องการประสิทธิภาพแฟลชที่เสถียรและทรงพลังในสถาปัตยกรรมแบบ Scale-out
คุณสามารถเริ่มต้นใช้งานได้จากตู้อุปกรณ์เพียงตู้เดียว และขยายระบบออกไปได้อย่างไร้ขีดจำกัดเพื่อให้ครอบคลุมความต้องการทั้งในด้าน File System หรือ Block Storage ด้วยการกำหนดค่าแบบ Hybrid สามารถขยายเพื่อรองรับอุปกรณ์ NVMe ได้สูงสุด 24 ตัว และอุปกรณ์ SAS อีกกว่า 900 ตัว (ทั้งแบบฮาร์ดดิสก์จานหมุน หรือ SSD)
ประสิทธิภาพเหนือชั้นที่ปรับขยายได้ตามต้องการ
ไม่ว่าคุณต้องการจะเร่งความเร็วในการวิเคราะห์ข้อมูล (Analytics), ลดความหน่วงของฐานข้อมูล NoSQL ที่มีความซับซ้อน หรือกำลังเริ่มต้นโปรเจกต์ Deep Learning ด้วยชุดข้อมูล (Training sets) ขนาดเริ่มต้น แพลตฟอร์ม SFA NVMe คือโครงสร้างพื้นฐานที่ตอบโจทย์และคุ้มค่าที่สุด
แพลตฟอร์มถูกออกแบบมาเพื่อให้คุณได้รับประโยชน์สูงสุดจากการลงทุน โดยมีโครงสร้างการเชื่อมต่อภายใน (Internal Switch Fabric) ที่รองรับ PCIe Gen 4 สูงถึง 288 เลน พร้อมเลนสำหรับการเชื่อมต่อกับฝั่ง Client อีกสูงสุด 64 เลน นอกจากนี้ ในรุ่น SFA400NVX2 ยังสามารถเพิ่มพอร์ตการเชื่อมต่อแบบ SAS-4 (16x x4 ports หรือ 64 เลน) เพื่อรองรับการขยายระบบในรูปแบบไฮบริดได้อีกด้วย
ความยืดหยุ่นที่ทรงพลังในขนาดกะทัดรัด
แพลตฟอร์ม SFA NVMe มีให้เลือกใช้งานทั้งในรูปแบบอุปกรณ์จัดเก็บข้อมูลแบบ Block Storage และอุปกรณ์จัดเก็บข้อมูลแบบไฟล์ (File Appliances) ประสิทธิภาพสูงที่รวมมาให้ครบในตัวเดียว โดยระบบไฟล์ EXAScaler® ของ DDN จะช่วยให้โมเดลการจัดเก็บข้อมูลแบบ “Building Block” ของ SFA NVMe สามารถขยายพื้นที่จัดการไฟล์แบบรวมศูนย์ มองเห็นเป็นหนึ่งเดียว (Parallel File Name Space) ได้อย่างมีประสิทธิภาพสูงสุด
อุปกรณ์เหล่านี้ถูกสร้าง ติดตั้ง และดูแลโดยผู้เชี่ยวชาญด้านเวิร์กโหลดที่เน้นการประมวลผลข้อมูลจำนวนมาก (Data-intensive workloads) จึงสามารถมอบประสิทธิภาพการทำงานสูงสุดให้กับแอปพลิเคชันและเวิร์กโหลดต่างๆ ด้วยการผสานจุดเด่นของระบบปฏิบัติการ SFAOS จาก DDN เข้ากับ EXAScaler® ซึ่งเป็นระบบไฟล์แบบขนานระดับชั้นนำของอุตสาหกรรม
สตอเรจ NVMe เพื่อการเร่งประสิทธิภาพเวิร์กโหลด
รูปแบบการใช้งานทั่วไป :
ด้วยความยืดหยุ่นและขีดความสามารถที่โดดเด่นของแพลตฟอร์ม SFA NVMe จึงช่วยตอบโจทย์การใช้งานในหลากหลายรูปแบบได้อย่างมีประสิทธิภาพ ดังนี้
- ปัญญาประดิษฐ์ (Artificial Intelligence): รองรับการประมวลผลที่ซับซ้อนของระบบ AI
- การวิเคราะห์ข้อมูล (Analytics): ช่วยให้การดึงข้อมูลมาวิเคราะห์ทำได้รวดเร็วแม่นยำขึ้น
- การเรียนรู้เชิงลึก (Deep Learning): เพิ่มประสิทธิภาพในการฝึกฝนโมเดลด้วยความเร็วสูง
- การกระจายเนื้อหา (Content Distribution): การส่งต่อข้อมูลหรือคอนเทนต์จำนวนมากไปยังผู้ใช้งานได้อย่างราบรื่น
การตรวจวัดข้อมูลทางไกลที่ต้องการประสิทธิภาพสูง (High IOPs Telemetry): เหมาะสำหรับการจัดเก็บและวิเคราะห์ข้อมูลสถานะของระบบที่มีการรับส่งข้อมูลมหาศาลตลอดเวลา
ประสิทธิภาพความเร็วระดับสูงสุดเพื่อ AI และอนาคตที่เหนือกว่า
AI400X3 คือ การสร้างมาตรฐานใหม่ให้กับแพลตฟอร์มข้อมูล NVMe ด้วยประสิทธิภาพที่ได้รับการอัปเกรดให้ดียิ่งขึ้น พร้อมรองรับไดรฟ์ NVMe แบบ dual-port ได้สูงสุดถึง 24 ตัว
ตัวเครื่องมีการขับเคลื่อนด้วยระบบไฟล์แบบขนาน DDN EXAScaler® และผสานการทำงานร่วมกับ NVIDIA® BlueField-3 SuperNIC™ รวมถึงเทคโนโลยีชั้นนำอื่น ๆ จาก NVIDIA ทำให้ AI400X3 สามารถมอบความเร็วและประสิทธิภาพที่ไม่มีใครเทียบได้ เหมาะสำหรับเวิร์กโหลดด้าน AI, การประมวลผลประสิทธิภาพสูง (HPC) และการจัดการข้อมูลระดับองค์กรขนาดใหญ่
การบริหารจัดการที่ง่ายดายในทุกระดับ
ลดความยุ่งยากในการดำเนินงานไม่ว่าระบบจะมีขนาดใหญ่เพียงใด ด้วยระบบ Multi-tenancy ที่ใช้งานง่ายและเครื่องมือตรวจสอบ (Monitoring) ที่ทรงพลังของ EXAScaler® ซึ่งถูกออกแบบมาโดยเน้นประสิทธิภาพและความสะดวกในการใช้งานเป็นหลัก
EXAScaler® ช่วยให้คุณมั่นใจได้ในประสิทธิภาพการทำงานที่สม่ำเสมอและน่าเชื่อถือ แม้ในสภาวะที่มีการใช้งานอย่างหนัก ช่วยให้คุณมองเห็นภาพรวมสถานะของระบบได้อย่างชัดเจน และบริหารจัดการโครงสร้างพื้นฐานทั้งหมดได้อย่างมั่นใจและง่ายดาย
การบีบอัดข้อมูลที่ช่วยเร่งประสิทธิภาพ
เพิ่มประสิทธิภาพการจัดเก็บข้อมูลสูงสุดด้วยเทคโนโลยี การบีบอัดข้อมูลที่ฝั่งไคลเอนต์ (Client-side compression) ซึ่งช่วยลดขนาดข้อมูลลงได้อย่างมหาศาลโดยไม่ทำให้ระบบทำงานช้าลง แตกต่างจากคู่แข่งที่มักจะต้องแลกประสิทธิภาพของเครื่องเพื่อแลกกับการบีบอัดข้อมูล
แต่สำหรับแพลตฟอร์มของ DDN ข้อมูลของคุณจะยังคงรับส่งได้อย่างรวดเร็วแม้จะมีการบีบอัดข้อมูลอย่างเต็มรูปแบบก็ตาม จึงถือเป็นโซลูชันที่เหมาะสมที่สุดสำหรับเวิร์กโหลดที่ต้องการความเร็วและความแม่นยำสูง
พร้อมรับอนาคตด้วยการขยายระบบที่ไร้ขีดจำกัด
AI400X3 ถูกออกแบบมาเพื่อให้เติบโตไปพร้อมกับความต้องการของคุณ โดยรองรับการขยายระบบด้วยเทคโนโลยี NVMe-oF™ ที่กำลังจะเปิดตัวในเร็ว ๆ นี้ ไม่ว่าคุณจะต้องการเพิ่มความจุในการจัดเก็บข้อมูล หรือยกระดับขีดความสามารถด้าน AI แพลตฟอร์มนี้จะช่วยให้คุณมั่นใจได้ว่า ระบบจะพร้อมรับมือกับความต้องการด้านข้อมูลที่ท้าทายในอนาคตได้อย่างแน่นอน
เร่งพลังการประมวลผลเวิร์กโหลดด้วยแพลตฟอร์มข้อมูล Next Generation จาก DDN
แพลตฟอร์ม AI400X3 มอบความยืดหยุ่นและขีดความสามารถที่จำเป็น เพื่อรองรับแอปพลิเคชันที่หลากหลาย ดังนี้:
- ปัญญาประดิษฐ์ (Artificial Intelligence) : ช่วยลดระยะเวลาในวงจรการทำงานของ AI ทั้งระบบ ตั้งแต่การนำเข้าข้อมูล (Data Ingest) ไปจนถึงการประมวลผล เพื่อให้องค์กรสามารถเปลี่ยนข้อมูลดิบให้เป็นโมเดลที่ใช้งานได้จริงอย่างรวดเร็วและแม่นยำที่สุด
- การวิเคราะห์ข้อมูล (Analytics) : รองรับการวิเคราะห์ข้อมูลขนาดใหญ่ (Big Data) แบบ Real-time ด้วยประสิทธิภาพการอ่าน/เขียนข้อมูลที่รวดเร็วระดับ 90GB/s ช่วยให้ธุรกิจสามารถประมวลผลข้อมูลที่ซับซ้อนและดึงข้อมูลเชิงลึกมาตัดสินใจได้ทันท่วงทีโดยไม่มีคอขวด
- การเรียนรู้เชิงลึก (Deep Learning) : ด้วยสถาปัตยกรรมแบบ NVMe 100% ทำให้สามารถส่งข้อมูล (Feed data) เข้าสู่หน่วยประมวลผล GPU ได้อย่างต่อเนื่องและรวดเร็ว ซึ่งเป็นหัวใจสำคัญในการฝึกโมเดล (Training) ที่มีโครงสร้างซับซ้อนและต้องใช้ชุดข้อมูลขนาดมหาศาล
- เจเนอเรทีฟ เอไอ (Generative AI) : เหมาะสำหรับการพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) หรือการสร้างคอนเทนต์ใหม่ ๆ ที่ต้องการความจุและการขยายตัว (Scalability) ในระดับสูง เพื่อจัดเก็บพารามิเตอร์จำนวนมหาศาลและรองรับการดึงข้อมูลมาสร้างคำตอบด้วยความหน่วง (Latency) ที่ต่ำที่สุด
- การเรียนรู้ของเครื่อง (Machine Learning) : ช่วยให้กระบวนการเตรียมข้อมูล (Data Preparation) และการคัดเลือกคุณลักษณะ (Feature Engineering) ทำได้อย่างมีประสิทธิภาพ รองรับเวิร์กโหลดที่มีทั้งข้อมูลแบบมีโครงสร้างและไม่มีโครงสร้างในระบบเดียว
การประมวลผลประสิทธิภาพสูง (HPC) : ตอบโจทย์งานวิจัยทางวิทยาศาสตร์ การจำลองสถานการณ์ (Simulations) หรือการวิเคราะห์สภาพอากาศที่ต้องการการประมวลผลแบบขนาน (Parallel Computing) ระดับสูง โดย AI400X3 ให้เสถียรภาพและประสิทธิภาพที่สม่ำเสมอแม้ในสภาพแวดล้อมที่มีการคำนวณหนักหน่วงที่สุด
โครงสร้างพื้นฐานที่พร้อมเติบโต เพื่อการจัดการ AI แบบครบวงจร
DDN AI2000 ถูกออกแบบมาเป็นพิเศษเพื่อให้การทำงานของ AI มีประสิทธิภาพสูงสุด ด้วยความเร็วระดับแนวหน้าของอุตสาหกรรม และความเสถียรในระดับที่องค์กรใหญ่ไว้วางใจ เพื่อรองรับทั้งขั้นตอนการทำงานและแอปพลิเคชัน AI ยุคใหม่ได้อย่างเต็มรูปแบบ
ด้วยขุมพลังจากแพลตฟอร์ม DDN Infinia เครื่อง AI2000 จึงได้รับการออกแบบมาเพื่อเร่งความเร็วในทุกส่วน ทั้งการประมวลผลผลลัพธ์ของ AI (Inference), การวิเคราะห์ข้อมูล, การเตรียมโมเดล ไปจนถึงการโหลดข้อมูลเข้าสู่ระบบ
DDN AI2000 สามารถเชื่อมต่อเข้ากับระบบรับส่งข้อมูล AI เดิมได้ทันทีอย่างไร้รอยต่อ ให้การตอบสนองที่รวดเร็วทันใจ (Low Latency) และขยายระบบได้ง่าย ช่วยให้องค์กรสามารถดึงความอัจฉริยะจากข้อมูลออกมาใช้ได้สูงสุด ในขณะที่ช่วยลดทั้งความยุ่งยากและต้นทุนในการบริหารจัดการ
ลดความยุ่งยากซับซ้อน
มอบมุมมองภาพรวมของชุดข้อมูลที่กระจายอยู่ตามจุดต่าง ๆ ได้อย่างเป็นหนึ่งเดียว ช่วยให้การทำงานของ AI เป็นไปได้อย่างครบวงจร (End-to-End) ตั้งแต่ศูนย์ข้อมูลหลัก (Core) บนคลาวด์ (Cloud) ไปจนถึงอุปกรณ์ปลายทาง (Edge) ด้วยการทลายกำแพงกั้นข้อมูลที่เคยถูกแยกส่วน (Data Silos) ระบบนี้จะช่วยปรับปรุงขั้นตอนการเตรียมข้อมูล การโหลดโมเดล การวิเคราะห์ และการประมวลผลผลลัพธ์ของ AI ให้รวดเร็วและเป็นระบบมากขึ้น เพื่อให้ได้ข้อมูลเชิงลึกที่แม่นยำและเชื่อถือได้สูงสุดสำหรับการตัดสินใจ
เร่งนวัตกรรมให้ก้าวล้ำ
เพิ่มประสิทธิภาพให้กับการทำงานของ AI ในทุกรูปแบบด้วยการตอบสนองที่รวดเร็วทันใจ (Low-latency) ด้วยระบบจัดการข้อมูลเบื้องหลัง (Metadata Engine) ที่ล้ำสมัยจะช่วยลดการเคลื่อนย้ายข้อมูลที่ไม่จำเป็น พร้อมเร่งความเร็วในการประมวลผลผลลัพธ์ของ AI (Inference) ด้วยการจัดทำดัชนีที่รองรับเทคโนโลยี RAG ช่วยให้หน่วยประมวลผลกราฟิก (GPU) ทำงานได้อย่างเต็มกำลังอยู่ตลอดเวลา เพื่อประสิทธิภาพและความคุ้มค่าสูงสุด
ลดต้นทุน
ช่วยลดค่าใช้จ่ายในการลงทุน (CAPEX) ได้สูงสุดถึง 75% ด้วยการใช้พลังงานที่น้อยลง ลดภาระของระบบทำความเย็น และประหยัดพื้นที่ในการจัดวาง นอกจากนี้ยังใช้ประโยชน์จาก Metadata ในการค้นหาและติดแท็กข้อมูล ณ จุดจัดเก็บ (In-place tagging) ช่วยลดปริมาณข้อมูลได้ถึง 10 เท่า และลดการเคลื่อนย้ายข้อมูลที่ไม่จำเป็นให้น้อยที่สุด
ขยายระบบได้อย่างมั่นใจและปลอดภัย
ช่วยให้การกำกับดูแลและการควบคุมระบบเป็นเรื่องง่าย ด้วยมาตรฐานความปลอดภัยและเสถียรภาพที่ติดตั้งมาให้พร้อมในตัว มาพร้อมเทคโนโลยีป้องกันความผิดพลาด (Fault tolerance), การเข้ารหัสข้อมูล (Encryption) และการรองรับผู้ใช้หลายกลุ่ม (Multi-tenancy) เพื่อรับประกันว่าข้อมูล AI ที่สำคัญจะพร้อมใช้งานอย่างต่อเนื่องและได้รับการปกป้องอย่างสูงสุด ไม่ว่าระบบจะขยายใหญ่ขึ้นแค่ไหนก็ตาม
ก้าวข้ามขีดจำกัดของ AI สู่ความอัจฉริยะที่เหนือกว่าด้วย DDN Data Intelligence Platform
ออกแบบมาโดยเฉพาะเพื่อระบบ AI แบบครบวงจร
DDN AI2000 ที่ขับเคลื่อนด้วยแพลตฟอร์ม Infinia จะช่วยในการรวบรวมข้อมูลทั่วทั้งองค์กรของคุณให้เป็นหนึ่งเดียว ด้วยความสามารถในการขยายระบบ ความง่ายในการจัดการ และความยืดหยุ่นที่เหนือชั้น เพื่อให้คุณขับเคลื่อนนวัตกรรมและสร้างความสำเร็จให้กับโปรเจกต์ AI ในด้านต่าง ๆ ดังนี้
- การประมวลผลผลลัพธ์ (AI Inference): ส่งมอบคำตอบจาก AI ได้รวดเร็วและแม่นยำ
- การวิเคราะห์ข้อมูล (Data Analytics): เปลี่ยนข้อมูลดิบให้เป็นข้อมูลเชิงลึกที่เป็นประโยชน์
- การเตรียมโมเดล (Model Preparation): จัดการและปรับแต่งข้อมูลเพื่อฝึกฝน AI ได้อย่างมีประสิทธิภาพ
- การโหลดโมเดล (Model Loading): เรียกใช้งานโมเดลขนาดใหญ่ได้ทันทีโดยไม่ต้องรอนาน
- เพิ่มประสิทธิภาพ GPU: เร่งการส่งข้อมูลขนาดใหญ่ไปยัง GPU เพื่อเพิ่มประสิทธิภาพการทำงานของโครงสร้างพื้นฐาน NVIDIA ลดเวลารอคอย และเพิ่มผลผลิตของระบบ
DDN Infinia ยังมอบอิสระในการเลือกสถาปัตยกรรมที่เหมาะสมกับองค์กรของคุณ ทั้งในแบบของ
Hardware Appliance & Software-Defined
- On-Premise: สามารถติดตั้ง Hardware Appliance หรือ ติดตั้ง Infinia Software บนเซิร์ฟเวอร์ x86 มาตรฐาน (Standard x86 Server) ทั่วไปได้ทันที เพิ่มความยืดหยุ่นในการจัดการภายในศูนย์ข้อมูลของตนเอง
Public Cloud: รองรับการติดตั้ง และใช้งาน Infinia Software บน Public Cloud
เกี่ยวกับ DDN
DataDirect Networks (DDN) คือผู้นำระดับโลกด้านการจัดเก็บข้อมูลขนาดใหญ่ (Big Data Storage) สำหรับองค์กรชั้นนำที่มีการใช้งานข้อมูลปริมาณมหาศาล (Data-intensive) โดย DDN มุ่งเน้นการออกแบบ พัฒนา ติดตั้ง และปรับปรุงระบบ ซอฟต์แวร์ รวมถึงโซลูชันต่าง ๆ ให้มีประสิทธิภาพสูงสุด
โซลูชันของ DDN ช่วยให้ทั้งภาคธุรกิจ, ผู้ให้บริการเทคโนโลยี, สถาบันวิจัย และหน่วยงานภาครัฐ สามารถสร้างมูลค่าเพิ่มจากข้อมูล และเร่งกระบวนการวิเคราะห์ข้อมูลเชิงลึก (Time to Insight) ได้อย่างรวดเร็ว ไม่ว่าจะเป็นการจัดการข้อมูลภายในองค์กร (On-premise) หรือบนคลาวด์ (Cloud) ก็ตาม

