ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์ องค์กรต่างๆ จึงมีความต้องการแพลตฟอร์มปฏิบัติการแมชชีนเลิร์นนิง (MLOps) เพิ่มขึ้น องค์กรหลายแห่งกำลังมองหาโซลูชันที่มีประสิทธิภาพและคุ้มต้นทุนเพื่อสร้าง ทดสอบ และปรับใช้โมเดลการเรียนรู้ของเครื่อง VESSL AI บริษัท AI ของเกาหลีใต้ใช้แนวทางที่แตกต่าง โดยมุ่งเน้นไปที่การเพิ่มประสิทธิภาพต้นทุน GPU และมอบแพลตฟอร์ม MLOps ที่คุ้มค่าแก่องค์กร และประสบความสำเร็จอย่างมาก บรรณาธิการของ Downcodes จะอธิบายรายละเอียดเกี่ยวกับ VESSL AI และตำแหน่งที่เป็นเอกลักษณ์ในตลาด AI
เนื่องจากปัญญาประดิษฐ์มีการบูรณาการเข้ากับเวิร์กโฟลว์และผลิตภัณฑ์ขององค์กรมากขึ้นเรื่อยๆ ความต้องการแพลตฟอร์มการดำเนินงานการเรียนรู้ของเครื่อง (MLOps) ก็เพิ่มขึ้นเช่นกัน แพลตฟอร์มดังกล่าวช่วยให้องค์กรต่างๆ สร้าง ทดสอบ และปรับใช้โมเดลการเรียนรู้ของเครื่องได้ง่ายขึ้น อย่างไรก็ตาม แม้ว่าจะมีคู่แข่งมากมายในตลาด เช่น สตาร์ทอัพอย่าง InfuseAIComet รวมไปถึงบริษัทขนาดใหญ่อย่าง Google Cloud, Azure และ AWS แต่ VESSL AI ของเกาหลีใต้ก็หวังที่จะหาพื้นที่การพัฒนาของตัวเองโดยมุ่งเน้นไปที่การเพิ่มประสิทธิภาพของ GPU ค่าใช้จ่าย

หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และรูปภาพนั้นได้รับอนุญาตจากผู้ให้บริการ Midjourney
เมื่อเร็วๆ นี้ VESSL AI ประสบความสำเร็จในการระดมทุนรอบ Series A มูลค่า 12 ล้านดอลลาร์ โดยมีเป้าหมายเพื่อเร่งการพัฒนาโครงสร้างพื้นฐาน และให้บริการแก่องค์กรที่ต้องการพัฒนาโมเดลภาษาขนาดใหญ่ (LLM) ที่ปรับแต่งเองและตัวแทน AI แนวตั้งได้ ปัจจุบันบริษัทมีลูกค้าองค์กร 50 ราย รวมถึงบริษัทที่มีชื่อเสียง เช่น Hyundai Motor, LIG Nex1 (ผู้ผลิตการบินและอาวุธของเกาหลีใต้) และ TMAP Mobility (บริษัทร่วมทุนระหว่าง Uber และ SK Telecom) นอกจากนี้ VESSL AI ยังได้สร้างความร่วมมือเชิงกลยุทธ์กับบริษัทต่างๆ ในสหรัฐอเมริกา เช่น Oracle และ Google Cloud
ทีมผู้ก่อตั้ง VESSL AI ประกอบด้วย Jaeman Kuss An (CEO), Jihwan Jay Chun (ประธานเจ้าหน้าที่ฝ่ายเทคโนโลยี), Intae Ryoo (ประธานเจ้าหน้าที่ฝ่ายผลิตภัณฑ์) และ Yongseon Sean Lee (หัวหน้าฝ่ายเทคนิค) ก่อนที่จะก่อตั้งบริษัท พวกเขาเคยทำงานที่ Google, บริษัทชื่อดังของ PUBG และบริษัทสตาร์ทอัพด้าน AI บางแห่ง เมื่อผู้ก่อตั้ง An พัฒนาโมเดลการเรียนรู้ของเครื่องที่บริษัทเทคโนโลยีทางการแพทย์เดิมของเขา เขาพบว่ากระบวนการนี้ยุ่งยากและสิ้นเปลืองทรัพยากร ดังนั้นพวกเขาจึงตัดสินใจใช้ประโยชน์จากโครงสร้างพื้นฐานแบบไฮบริดเพื่อเพิ่มประสิทธิภาพและลดต้นทุน
แพลตฟอร์ม MLOps ของ VESSL AI ใช้กลยุทธ์มัลติคลาวด์เพื่อช่วยให้องค์กรต่างๆ ลดค่าใช้จ่าย GPU ได้ถึง 80% โดยใช้ GPU จากผู้ให้บริการคลาวด์ต่างๆ แนวทางนี้ไม่เพียงแต่แก้ปัญหาการขาดแคลน GPU เท่านั้น แต่ยังเพิ่มประสิทธิภาพการฝึกอบรม การปรับใช้ และการทำงานของโมเดล AI โดยเฉพาะการจัดการโมเดลภาษาขนาดใหญ่ กล่าวกันว่าระบบสามารถเลือกทรัพยากรที่คุ้มค่าและมีประสิทธิภาพสูงสุดโดยอัตโนมัติเพื่อประหยัดเงินของลูกค้า
ผลิตภัณฑ์ของ VESSL มีฟังก์ชันหลัก 4 ฟังก์ชัน ได้แก่: VESSL Run (การฝึกอบรมโมเดล AI อัตโนมัติ), VESSL Serve (รองรับการใช้งานแบบเรียลไทม์), VESSL Pipelines (ผสานรวมการฝึกอบรมโมเดลและการประมวลผลข้อมูลล่วงหน้าเพื่อลดความซับซ้อนของเวิร์กโฟลว์) และ VESSL Cluster (เพิ่มประสิทธิภาพคลัสเตอร์) GPU การใช้ทรัพยากรในสภาพแวดล้อม) หลังจากการระดมทุนรอบนี้ เงินทุนทั้งหมดของ VESSL AI มีมูลค่าถึง 16.8 ล้านดอลลาร์ และบริษัทมีพนักงาน 35 คนในเกาหลีใต้และซานมาเทโอ สหรัฐอเมริกา
ไฮไลท์:
VESSL AI เสร็จสิ้นการระดมทุน Series A มูลค่า 12 ล้านดอลลาร์สหรัฐ และมุ่งมั่นที่จะปรับต้นทุน GPU ขององค์กรให้เหมาะสม
ปัจจุบันมีลูกค้าองค์กร 50 ราย รวมถึงบริษัทชื่อดังอย่าง Hyundai Motor และ LIG Nex1
แพลตฟอร์มดังกล่าวลดต้นทุน GPU ได้มากถึง 80% ผ่านกลยุทธ์มัลติคลาวด์และมีฟังก์ชันหลักที่หลากหลาย
โดยรวมแล้ว VESSL AI มอบแพลตฟอร์ม MLOps ที่มีประสิทธิภาพและประหยัดแก่องค์กรต่างๆ ผ่านกลยุทธ์การเพิ่มประสิทธิภาพต้นทุน GPU ที่เป็นเอกลักษณ์ และได้สร้างตลาดเฉพาะกลุ่ม ความสำเร็จทางการเงินและลูกค้าที่มีชื่อเสียงจำนวนมากยังพิสูจน์ถึงคุณค่าและศักยภาพทางการตลาดของเทคโนโลยีของบริษัทอีกด้วย ในอนาคต การพัฒนา VESSL AI สมควรได้รับความสนใจอย่างต่อเนื่อง