เมื่อเร็วๆ นี้ Anthropic Corporation ได้ประกาศแผนการอันทะเยอทะยานในการให้ทุนสำหรับการพัฒนาเกณฑ์มาตรฐานใหม่สำหรับการประเมินประสิทธิภาพและผลกระทบของโมเดลปัญญาประดิษฐ์ ซึ่งถือเป็นก้าวสำคัญในด้านการประเมินความปลอดภัยของปัญญาประดิษฐ์ โปรแกรมนี้จะให้เงินทุนแก่องค์กรบุคคลที่สามเพื่อพัฒนาเครื่องมือที่สามารถวัดความสามารถขั้นสูงของโมเดลปัญญาประดิษฐ์ได้อย่างมีประสิทธิภาพ โดยเฉพาะอย่างยิ่งความสามารถของโมเดล AI เชิงสร้างสรรค์ การเคลื่อนไหวครั้งนี้จะไม่เพียงปรับปรุงระดับโดยรวมของสาขาความปลอดภัยด้านปัญญาประดิษฐ์เท่านั้น แต่ยังจะมอบเครื่องมือประเมินผลที่มีคุณค่าสำหรับระบบนิเวศทั้งหมด และแก้ปัญหาการขาดเครื่องมือประเมินผลด้านความปลอดภัยคุณภาพสูงในปัจจุบัน ความคิดริเริ่มของ Anthropic เป็นสิ่งที่น่าสังเกต แต่ก็ยังกระตุ้นให้เกิดการอภิปรายเกี่ยวกับความเป็นธรรมและการมุ่งเน้นของมันด้วย
เมื่อวันจันทร์ที่ผ่านมา Anthropic ประกาศเปิดตัวโครงการริเริ่มใหม่เพื่อสนับสนุนการพัฒนาเกณฑ์มาตรฐานใหม่ที่สามารถประเมินประสิทธิภาพและผลกระทบของโมเดลปัญญาประดิษฐ์ รวมถึงโมเดลกำเนิดเช่น Claude ของตัวเอง
ตามข้อมูลที่โพสต์ในบล็อกอย่างเป็นทางการของ Anthropic บริษัทจะให้การสนับสนุนทางการเงินแก่องค์กรบุคคลที่สามเพื่อพัฒนาเครื่องมือที่ “วัดความสามารถขั้นสูงของโมเดลปัญญาประดิษฐ์ได้อย่างมีประสิทธิภาพ” องค์กรที่สนใจสามารถส่งใบสมัครและการประเมินผลจะดำเนินการตามลำดับ

Anthropic กล่าวว่าการลงทุนนี้มีเป้าหมายเพื่อปรับปรุงขอบเขตความปลอดภัยด้านปัญญาประดิษฐ์โดยรวม และจัดหาเครื่องมือที่มีคุณค่าสำหรับระบบนิเวศทั้งหมด บริษัทเชื่อว่าการพัฒนาการประเมินคุณภาพสูงที่เกี่ยวข้องกับความปลอดภัยยังคงมีความท้าทายและความต้องการมีมากกว่าอุปทาน
ด้วยการมุ่งเน้นไปที่ความปลอดภัยของ AI และผลกระทบทางสังคม โปรแกรมวางแผนที่จะสร้างเกณฑ์มาตรฐานที่ท้าทายผ่านเครื่องมือ โครงสร้างพื้นฐาน และวิธีการใหม่ๆ Anthropic ร้องขอการทดสอบโดยเฉพาะเพื่อประเมินความสามารถของโมเดลในด้านต่างๆ เช่น การโจมตีทางไซเบอร์ การดัดแปลงอาวุธ การบงการ หรือการหลอกลวง นอกจากนี้ บริษัทกำลังดำเนินการพัฒนา "ระบบเตือนภัยล่วงหน้า" เพื่อระบุและประเมินความมั่นคงของชาติและความเสี่ยงด้านปัญญาประดิษฐ์ที่เกี่ยวข้องกับการป้องกันประเทศ
Anthropic ยังกล่าวอีกว่าโครงการใหม่นี้จะสนับสนุนการวิจัยที่สำรวจศักยภาพของปัญญาประดิษฐ์เพื่อช่วยในการวิจัยทางวิทยาศาสตร์ การสื่อสารในหลายภาษา ลดอคติ และการเซ็นเซอร์ตนเอง เพื่อให้บรรลุเป้าหมายเหล่านี้ บริษัทจึงจินตนาการถึงการสร้างแพลตฟอร์มใหม่ที่จะช่วยให้ผู้เชี่ยวชาญสามารถพัฒนาการประเมินและดำเนินการทดลองในวงกว้างได้
ในขณะที่การเคลื่อนไหวของ Anthropic ได้รับการยกย่อง แต่ก็ทำให้เกิดคำถามขึ้นเช่นกัน บางคนเชื่อว่าเมื่อคำนึงถึงผลประโยชน์ทางการค้าของบริษัทแล้ว ความเป็นธรรมของโครงการที่ได้รับทุนสนับสนุนอาจได้รับผลกระทบ นอกจากนี้ ผู้เชี่ยวชาญบางคนยังแสดงความกังขาเกี่ยวกับความเสี่ยงด้าน AI ที่ "เป็นหายนะ" และ "หลอกลวง" ที่ Anthropic อ้างถึง โดยอ้างว่าสิ่งนี้อาจหันเหความสนใจไปจากประเด็นเร่งด่วนของกฎระเบียบ AI ในปัจจุบัน
Anthropic หวังว่าความคิดริเริ่มนี้จะช่วยให้การประเมิน AI ที่ครอบคลุมเป็นมาตรฐานอุตสาหกรรม อย่างไรก็ตาม ยังคงต้องรอดูว่ากลุ่มพัฒนาเกณฑ์มาตรฐาน AI อิสระจะยินดีทำงานร่วมกับผู้จำหน่าย AI เชิงพาณิชย์หรือไม่
ต้องใช้เวลาในการทดสอบว่าความเคลื่อนไหวของ Anthropic สามารถส่งเสริมการพัฒนาด้านการประเมินความปลอดภัยของปัญญาประดิษฐ์ได้สำเร็จหรือไม่ และส่งเสริมการจัดตั้งมาตรฐานการประเมินที่ยุติธรรมและครอบคลุมมากขึ้นหรือไม่ ผลกระทบระยะยาวและข้อจำกัดที่อาจเกิดขึ้นของแผนยังคงต้องได้รับการดูแลและประเมินผลอย่างต่อเนื่อง