มีข่าวดีมากมายในสาขา AI ในสัปดาห์นี้ Google และ Meta ได้เปิดตัวการอัปเดตที่สำคัญตามลำดับ ประสิทธิภาพของโมเดล Google Gemini ได้รับการปรับปรุงอย่างมากและลดต้นทุนลง สะดุดตา ในเวลาเดียวกัน โครงการ AlphaChip ของ Google DeepMind ได้สร้างความก้าวหน้าอย่างก้าวกระโดด เร่งประสิทธิภาพการออกแบบชิป และโมเดลที่เกี่ยวข้องกับโอเพ่นซอร์ส ซึ่งอัดฉีดแรงผลักดันอันแข็งแกร่งให้กับการพัฒนาอุตสาหกรรม บรรณาธิการของ Downcodes จะอธิบายรายละเอียดการพัฒนา AI ที่น่าตื่นเต้นเหล่านี้
อุตสาหกรรม AI มีงานยุ่งมากในช่วงสัปดาห์ที่ผ่านมา ทั้ง Google และ Meta กำลังเปิดตัวโมเดล AI เวอร์ชันใหม่ ซึ่งดึงดูดความสนใจเป็นอย่างมาก ก่อนอื่น Google ได้ประกาศการอัปเดตใหม่สำหรับซีรี่ส์ Gemini ในวันอังคาร โดยเปิดตัวโมเดลใหม่พร้อมการผลิตสองรุ่น ได้แก่ Gemini-1.5-Pro-002 และ Gemini-1.5-Flash-002

การอัปเดตนี้ได้ปรับปรุงคุณภาพโดยรวมของแบบจำลองอย่างมาก โดยเฉพาะอย่างยิ่งในด้านคณิตศาสตร์ การประมวลผลบริบทแบบยาว และงานการมองเห็น Google อ้างว่าในการทดสอบเกณฑ์มาตรฐาน MMLU-Pro ประสิทธิภาพได้รับการปรับปรุง 7% และประสิทธิภาพในงานที่เกี่ยวข้องกับคณิตศาสตร์ได้รับการปรับปรุง 20% หากคุณสนใจเกี่ยวกับ AI คุณควรรู้ว่าการวัดประสิทธิภาพมีความสำคัญจำกัด แต่ข้อมูลนี้ยังคงน่าตื่นเต้นมาก
นอกเหนือจากการปรับปรุงประสิทธิภาพของโมเดลแล้ว Google ยังลดต้นทุนการใช้ Gemini1.5Pro ลงอย่างมาก โดยค่าธรรมเนียมโทเค็นอินพุตและเอาท์พุตลดลง 64% และ 52% ตามลำดับ การย้ายครั้งนี้ช่วยให้นักพัฒนาใช้ Gemini ได้คุ้มค่ามากขึ้น
นอกจากนี้ หลังจากการอัพเดต ความเร็วในการประมวลผลคำขอของ Gemini-1.5Flash และ Pro ก็ได้รับการปรับปรุงเช่นกัน โดยแบบแรกสามารถรองรับ 2,000 คำขอต่อนาที และแบบหลังสามารถรองรับ 1,000 คำขอต่อนาที การปรับปรุงดังกล่าวจะช่วยให้นักพัฒนาสร้างแอปพลิเคชันได้ง่ายขึ้นอย่างไม่ต้องสงสัย

ในวันพุธ Meta ไม่ได้ใช้งาน โดยเปิดตัว Llama3.2 ซึ่งเป็นการอัปเดตครั้งใหญ่สำหรับโมเดล AI แบบเปิด การอัปเดตนี้ประกอบด้วยโมเดลภาษาขนาดใหญ่ที่มีความสามารถด้านการมองเห็น ซึ่งมีขนาดพารามิเตอร์ตั้งแต่ 1.1 พันล้านถึง 9 พันล้าน และยังเปิดตัวโมเดลข้อความแบบน้ำหนักเบาที่มีพารามิเตอร์ 100 ล้านและ 300 ล้านที่ออกแบบมาสำหรับอุปกรณ์มือถือ
Meta อ้างว่าโมเดลภาพเหล่านี้เทียบได้กับโมเดลโอเพนซอร์ซชั้นนำของตลาดในด้านการรับรู้ภาพและความเข้าใจด้านภาพ นอกจากนี้ นักวิจัย AI บางคนยังได้ทดสอบโมเดลใหม่ๆ และผลลัพธ์ที่ได้แสดงให้เห็นว่าโมเดลขนาดเล็กเหล่านี้ทำงานได้ดีกับงานข้อความจำนวนมาก

ถัดไปในวันพฤหัสบดี Google DeepMind ได้ประกาศโครงการหลัก AlphaChip อย่างเป็นทางการ โครงการนี้อิงจากการวิจัยในปี 2020 และมีเป้าหมายเพื่อออกแบบรูปแบบชิปผ่านการเรียนรู้แบบเสริมแรง Google กล่าวว่า AlphaChip ได้รับความเร็ว "รูปแบบชิปเหนือมนุษย์" ในการสร้างรูปแบบชิปคุณภาพสูงในหน่วยประมวลผลเทนเซอร์ (TPU) สามรุ่นสุดท้ายที่สามารถทำได้ ลดลงจากสัปดาห์หรือเดือนในมนุษย์เป็นชั่วโมง
สิ่งที่ควรค่าแก่การกล่าวถึงมากกว่าก็คือ Google ยังได้แชร์โมเดลที่ได้รับการฝึกอบรมล่วงหน้าของ AlphaChip กับสาธารณะบน GitHub เพื่อให้บริษัทออกแบบชิปอื่นๆ สามารถใช้เทคโนโลยีนี้ได้ และแม้แต่บริษัทอย่าง MediaTek ก็เริ่มนำเทคโนโลยีนี้ไปใช้
ไฮไลท์:
** Google เปิดตัวโมเดล Gemini เวอร์ชันใหม่ ปรับปรุงประสิทธิภาพโดยรวมและลดราคาลงอย่างมาก -
**Meta เปิดตัว Llama3.2 ซึ่งเป็นโมเดลภาษาขนาดเล็กที่รองรับฟังก์ชันการมองเห็นและทำงานได้ดี -
** AlphaChip ของ Google เร่งการออกแบบชิป ปรับปรุงประสิทธิภาพการออกแบบอย่างมาก และแบ่งปันเทคโนโลยี -
โดยรวมแล้ว นวัตกรรมด้าน AI ประจำสัปดาห์นี้น่าตื่นเต้นมาก ความก้าวหน้าทางเทคโนโลยีเหล่านี้จะส่งเสริมการประยุกต์ใช้ปัญญาประดิษฐ์ในสาขาอื่นๆ มากขึ้นและสมควรได้รับความสนใจอย่างต่อเนื่อง เครื่องมือแก้ไขของ Downcodes จะยังคงนำเสนอข้อมูลเทคโนโลยีที่ล้ำสมัยมากขึ้นแก่คุณต่อไป