เมื่อเร็ว ๆ นี้ Openai ประกาศการมีส่วนร่วมในการตรวจสอบปัญหาประสิทธิภาพของ GPT-4 เนื่องจากผู้ใช้หลายคนรายงานว่าโมเดลดูเหมือนจะขี้เกียจเมื่อสร้างรหัสและไม่สามารถให้รหัสตัวอย่างที่รันได้ ปรากฏการณ์นี้ได้จุดประกายการอภิปรายอย่างกว้างขวางโดยนักพัฒนาหลายคนกล่าวว่าพวกเขาพบปัญหาในการสร้างรหัส Android โดยใช้ GPT-4 และเอาต์พุตรหัสโดยโมเดลไม่สมบูรณ์หรือไม่สามารถทำงานได้โดยตรง
ผู้ใช้แสดงความไม่พอใจกับประสิทธิภาพของ GPT-4 ในโซเชียลมีเดียและฟอรัมนักพัฒนา ผู้ใช้แบ่งปันประสบการณ์ของเขาพยายามที่จะรับ GPT-4 เพื่อสร้างรหัสแอปพลิเคชัน Android ที่เรียบง่าย แต่โมเดลมีเพียงตัวอย่างรหัสบางส่วนโดยไม่มีรายละเอียดการใช้งานที่สำคัญซึ่งทำให้ไม่สามารถทำงานได้โดยตรง สถานการณ์นี้ไม่ใช่กรณีที่แยกได้และผู้ใช้หลายคนได้รายงานปัญหาที่คล้ายกันโดยเฉพาะอย่างยิ่งเมื่อพูดถึงงานการเขียนโปรแกรมที่เฉพาะเจาะจง
พนักงานของ OpenAI ตอบคำถามนี้ในฟอรัมชุมชนโดยยอมรับว่าการอัปเดตเมื่อเร็ว ๆ นี้อาจทำให้ประสิทธิภาพลดลงใน GPT-4 พวกเขากล่าวว่าทีมงานด้านเทคนิคกำลังตรวจสอบปัญหาและสัญญาว่าจะแก้ไขโดยเร็วที่สุด แม้ว่าการตอบสนองนี้จะทำให้ผู้ใช้บางคนปลอบโยน แต่ก็มีการสนทนาเกี่ยวกับความมั่นคงของโมเดล AI นักพัฒนาหลายคนเริ่มตั้งคำถามว่าจะมั่นใจได้ถึงคุณภาพและความน่าเชื่อถือของโมเดลเมื่อพึ่งพา AI สำหรับความช่วยเหลือด้านการเขียนโปรแกรม
เหตุการณ์นี้ยังจุดประกายการอภิปรายเกี่ยวกับการจัดการการอัปเดตแบบจำลอง AI ผู้เชี่ยวชาญบางคนชี้ให้เห็นว่าการอัปเดตของโมเดล AI ควรระมัดระวังมากขึ้นโดยเฉพาะอย่างยิ่งเมื่อต้องใช้ฟังก์ชั่นหลักและจำเป็นต้องมีการทดสอบและการตรวจสอบที่เพียงพอ ในขณะเดียวกันผู้ใช้ยังคาดหวังว่า OpenAI จะให้คำแนะนำการอัปเดตที่โปร่งใสมากขึ้นและกระบวนการแก้ปัญหาเพื่อให้เข้าใจและใช้เครื่องมือ AI ขั้นสูงเหล่านี้ได้ดีขึ้น
แม้จะมีปัญหาบางอย่างในปัจจุบันการตอบสนองของ Openai และสัญญาว่าจะซ่อมแซมได้รับความเข้าใจจากผู้ใช้บางคน นักพัฒนาหลายคนยังคงมองโลกในแง่ดีเกี่ยวกับศักยภาพของ GPT-4 และหวังว่าจะยังคงใช้ประโยชน์จากเครื่องมือที่ทรงพลังนี้เพื่อปรับปรุงประสิทธิภาพการพัฒนาหลังจากปัญหาได้รับการแก้ไข ในอนาคตด้วยความก้าวหน้าอย่างต่อเนื่องของเทคโนโลยี AI วิธีการสร้างความมั่นใจในความมั่นคงและความน่าเชื่อถือในขณะที่การรักษานวัตกรรมจะกลายเป็นหัวข้อสำคัญสำหรับนักพัฒนา AI และผู้ใช้ที่จะให้ความสนใจ