เมื่อเร็วๆ นี้ บรรณาธิการของ Downcodes ได้เรียนรู้ว่า Anna Makanju รองประธานฝ่ายกิจการระดับโลกของ OpenAI ได้แบ่งปันมุมมองของเธอเกี่ยวกับอคติด้านปัญญาประดิษฐ์ที่การประชุม "Future Summit" ของสหประชาชาติ โดยมุ่งเน้นไปที่โมเดลการอนุมาน o1 ของ OpenAI เธอเชื่อว่าแบบจำลองนี้สามารถลดอคติในระบบ AI ได้อย่างมาก และอธิบายกลไกในการระบุตัวตนและแก้ไขการตอบสนองที่มีอคติ อย่างไรก็ตาม ผลการทดสอบจริงแตกต่างจากที่คาดการณ์ไว้ ซึ่งทำให้อุตสาหกรรมต้องคิดเพิ่มเติมเกี่ยวกับประสิทธิภาพที่แท้จริงของโมเดล AI
เมื่อเร็วๆ นี้ Anna Makanju รองประธานฝ่ายกิจการระดับโลกของ OpenAI แสดงความคิดเห็นของเธอเกี่ยวกับอคติด้านปัญญาประดิษฐ์ในการประชุม "Future Summit" ของสหประชาชาติ
เธอกล่าวว่าโมเดล "การอนุมาน" เช่น o1 ของ OpenAI สามารถลดอคติในระบบ AI ได้อย่างมาก ดังนั้น O1 ทำเช่นนี้ได้อย่างไร Makanju อธิบายว่าแบบจำลองสามารถระบุอคติในการตอบสนองได้และปฏิบัติตามกฎของการไม่สร้างการตอบสนองที่ "เป็นอันตราย" อย่างใกล้ชิดยิ่งขึ้น

เธอกล่าวว่าโมเดล O1 ใช้เวลามากขึ้นในการประเมินคำตอบของตัวเองเมื่อจัดการกับปัญหา และสามารถตรวจสอบตัวเองได้: "โมเดลสามารถพูดได้ว่า 'นี่คือวิธีที่ฉันจะแก้ปัญหานี้' แล้วดูคำตอบของตัวเองเพื่อดู 'โอ้ อาจมีข้อบกพร่องในการให้เหตุผลที่นี่'" เธอยังเน้นย้ำว่า 1 ทำงานที่ "เกือบจะสมบูรณ์แบบ" ในการวิเคราะห์อคติของตัวเอง และมันจะดีขึ้นเรื่อยๆ เมื่อเทคโนโลยีก้าวหน้า
อย่างไรก็ตาม ข้อความที่ "เกือบจะสมบูรณ์แบบ" นี้ดูเหมือนจะเป็นการพูดเกินจริง การทดสอบภายในของ OpenAI พบว่า o1 ทำงานได้ไม่ดีในการทดสอบอคติบางอย่าง เมื่อเทียบกับโมเดลที่ "ไม่มีการอนุมาน" รวมถึง GPT-4o ของตัวเองด้วย ในประเด็นเกี่ยวกับเชื้อชาติ เพศ และอายุ o1 ทำงานได้แย่กว่า GPT-4o ในบางกรณี แม้ว่า o1 จะทำงานได้ดีกว่าในแง่ของการเลือกปฏิบัติโดยปริยาย แต่ในแง่ของการเลือกปฏิบัติอย่างชัดเจน แต่ก็มีความโดดเด่นมากกว่าในเรื่องอายุและเชื้อชาติ
สิ่งที่น่าสนใจยิ่งกว่านั้นคือ o1-mini เวอร์ชันประหยัดของ o1 นั้นทำงานได้แย่ยิ่งกว่าเดิมอีก การทดสอบแสดงให้เห็นว่า o1-mini มีความเป็นไปได้สูงที่จะมีการแยกแยะเพศ เชื้อชาติ และอายุอย่างชัดเจนมากกว่า GPT-4o และการเลือกปฏิบัติโดยนัยต่ออายุก็ชัดเจนกว่าเช่นกัน
นอกจากนี้ โมเดลการอนุมานในปัจจุบันยังมีข้อจำกัดมากมาย OpenAI ยังยอมรับว่า o1 นำประโยชน์มาสู่งานบางอย่างเพียงเล็กน้อย ตอบช้า บางคำถามใช้เวลาตอบมากกว่า 10 วินาที ยิ่งไปกว่านั้น ไม่สามารถประเมินต้นทุนของ o1 ต่ำเกินไปได้ และต้นทุนการดำเนินการคือ 3 ถึง 4 เท่าของ GPT-4o
หากโมเดลการอนุมานที่ Makanju พูดถึงเป็นวิธีที่ดีที่สุดในการบรรลุ AI ที่ยุติธรรม พวกเขาจะต้องปรับปรุงในด้านอื่นที่ไม่ใช่อคติเพื่อเป็นทางเลือกที่ทำงานได้ ถ้าไม่เช่นนั้น เฉพาะลูกค้าที่มีเงินในกระเป๋าจำนวนมากและเต็มใจที่จะอดทนต่อเวลาแฝงและปัญหาด้านประสิทธิภาพทุกประเภทเท่านั้นที่จะได้รับประโยชน์อย่างแท้จริง
ไฮไลท์:
กล่าวกันว่าโมเดล o1 ของ OpenAI ช่วยลดอคติของ AI ได้อย่างมาก แต่ผลการทดสอบแสดงให้เห็นว่าโมเดลทำงานได้ไม่ดีเท่าที่ควร
o1 ทำงานได้ดีกว่า GPT-4o ในการเลือกปฏิบัติโดยปริยาย แต่จะแย่กว่าในการเลือกปฏิบัติอย่างชัดแจ้ง
? รูปแบบการอนุมาน o1 มีราคาแพงและทำงานช้า และยังต้องมีการปรับปรุงในหลาย ๆ ด้านในอนาคต
โดยรวมแล้ว โมเดล o1 ของ OpenAI ยังมีหนทางอีกยาวไกลในการลดอคติของ AI แม้ว่ากลไกการแก้ไขตัวเองจะน่าประทับใจ แต่ข้อจำกัดด้านต้นทุนและความเร็วที่สูง ตลอดจนข้อเท็จจริงที่ว่ามันทำงานได้ไม่ดีในการทดสอบอคติบางอย่าง บ่งชี้ว่าเทคโนโลยีนี้ยังอยู่ในช่วงเริ่มต้นและยังค่อนข้างห่างไกลจากการใช้งานจริง . บรรณาธิการของ Downcodes จะยังคงให้ความสำคัญกับการพัฒนาสาขานี้ต่อไป