Meta เพิ่งประกาศว่าจะเปิดตัวโมเดลปัญญาประดิษฐ์ Llama ให้กับหน่วยงานภาครัฐของสหรัฐอเมริกาและผู้รับเหมาของพวกเขาเพื่อสนับสนุนแอปพลิเคชันความมั่นคงแห่งชาติ การเคลื่อนไหวครั้งนี้มีวัตถุประสงค์เพื่อตอบสนองต่อความกังวลเกี่ยวกับ AI ที่เปิดกว้างซึ่งอาจถูกนำไปใช้ประโยชน์จากฝ่ายตรงข้ามต่างชาติและแสดงให้เห็นถึงการมีส่วนร่วมทางเทคโนโลยีในด้านความมั่นคงของชาติ เมตาเน้นว่าการประยุกต์ใช้โมเดล Llama จะอยู่ภายใต้บรรทัดฐานและข้อ จำกัด ที่เข้มงวดเพื่อให้แน่ใจว่ามันไม่ได้ใช้เพื่อวัตถุประสงค์ที่ผิดกฎหมายหรือเป็นอันตราย บทความนี้จะสำรวจเชิงลึกเกี่ยวกับพื้นหลังของการเคลื่อนไหวของ Meta หุ้นส่วนและการอภิปรายเกี่ยวกับความปลอดภัยของปัญญาประดิษฐ์แบบเปิดที่ได้รับการกระตุ้น
Meta เพิ่งประกาศว่าจะเปิดตัวแบบจำลองระบบปัญญาประดิษฐ์ Llama ให้กับหน่วยงานภาครัฐของสหรัฐอเมริกาและผู้รับเหมาที่เกี่ยวข้องเพื่อสนับสนุนแอปพลิเคชันความมั่นคงแห่งชาติ
การเคลื่อนไหวครั้งนี้มีจุดมุ่งหมายเพื่อกำจัดการรับรู้ว่าโลกภายนอกนั้น“ เปิด” ไปยัง AI อาจเป็นเชื้อเพลิงคู่แข่งต่างประเทศ “ เรายินดีที่จะยืนยันว่า Llama จะจัดหาหน่วยงานภาครัฐของสหรัฐอเมริการวมถึงผู้ที่มุ่งเน้นการป้องกันและความมั่นคงของชาติรวมถึงพันธมิตรภาคเอกชนที่สนับสนุนความพยายามเหล่านี้” Meta กล่าวในโพสต์บล็อก

เพื่อส่งเสริมโครงการนี้ Meta ได้รับความร่วมมือกับ บริษัท ที่มีชื่อเสียงหลายแห่งรวมถึง Accenture, Amazon Web Services, Andyr, Boss Allen, Databricks, Deloitte, IBM, Ledos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI และ Snowflake บริษัท เหล่านี้จะช่วยใช้รูปแบบ Llama กับงานด้านความมั่นคงแห่งชาติต่างๆ
ตัวอย่างเช่น Oracle กำลังใช้ Llama เพื่อประมวลผลเอกสารการบำรุงรักษาเครื่องบินในขณะที่ Scale AI เป็นการปรับแต่ง Llama สำหรับงานด้านความมั่นคงแห่งชาติที่เฉพาะเจาะจง Lockheed Martin วางแผนที่จะให้ Llama แก่ลูกค้าเพื่อป้องกันเพื่อช่วยพวกเขาสร้างรหัสคอมพิวเตอร์ ฯลฯ
โดยทั่วไปแล้วนโยบายของ Meta ห้ามมิให้นักพัฒนาใช้การใช้ Llama กับโครงการทหารสงครามหรือโครงการที่เกี่ยวข้องกับสายลับ อย่างไรก็ตามในกรณีนี้ Meta ตัดสินใจที่จะยกเว้นโดยอนุญาตให้ Llama ใช้งานโดยหน่วยงานและผู้รับเหมาที่เกี่ยวข้องกับรัฐบาลสหรัฐฯและยังใช้กับหน่วยงานที่คล้ายกันในประเทศเช่นสหราชอาณาจักรแคนาดาออสเตรเลียและนิวซีแลนด์
เป็นที่น่าสังเกตว่ามีรายงานว่านักวิจัยบางคนที่เกี่ยวข้องกับกองทัพปลดปล่อยประชาชนจีนใช้รูปแบบ Llama รุ่นเก่า (LLAMA2) เพื่อพัฒนา chatbot ที่เน้นการทหารที่ออกแบบมาเพื่อรวบรวมและประมวลผลข่าวกรองและให้การตัดสินใจต่อสู้ ข้อมูล. Meta ตอบว่าการใช้แบบจำลองนั้น“ ไม่ได้รับอนุญาต” และละเมิดนโยบายการใช้งานที่ยอมรับได้ของ บริษัท อย่างไรก็ตามเหตุการณ์นี้ก่อให้เกิดการอภิปรายอย่างกว้างขวางเกี่ยวกับข้อดีและข้อเสียของ Open AI
ด้วยการประยุกต์ใช้ปัญญาประดิษฐ์ในหน่วยข่าวกรองทางทหารการเฝ้าระวังและการลาดตระเวนความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องได้ค่อยๆโผล่ขึ้นมา การศึกษาจากสถาบัน AI ตอนนี้แสดงให้เห็นว่าระบบ AI ที่มีอยู่นั้นขึ้นอยู่กับข้อมูลส่วนบุคคลที่สามารถสกัดและอาวุธโดยฝ่ายตรงข้าม ในขณะเดียวกันระบบปัญญาประดิษฐ์ก็มีปัญหาเช่นอคติและภาพหลอนและปัจจุบันยังไม่มีวิธีแก้ปัญหาที่มีประสิทธิภาพ นักวิจัยแนะนำให้พัฒนาระบบ AI เฉพาะที่แยกได้จากรูปแบบ "ธุรกิจ"
แม้ว่า Meta อ้างว่าการเปิด AI สามารถเร่งการวิจัยการป้องกันและส่งเสริมผลประโยชน์ทางเศรษฐกิจและความมั่นคงของสหรัฐฯ แต่กองทัพสหรัฐฯยังคงระมัดระวังเกี่ยวกับการยอมรับเทคโนโลยีนี้และมีเพียงกองทัพเท่านั้น
ประเด็นสำคัญ:
Meta เปิดรูปแบบ Llama ให้กับรัฐบาลสหรัฐฯและผู้รับเหมากลาโหมเพื่อสนับสนุนแอปพลิเคชันความมั่นคงแห่งชาติ
บริษัท ที่รู้จักกันดีหลายแห่งได้ร่วมมือกับ Meta เพื่อส่งเสริมการใช้งานโมเดล Llama ในด้านการป้องกัน
ความเสี่ยงด้านความปลอดภัยของปัญญาประดิษฐ์แบบเปิดในแอพพลิเคชั่นทางทหารได้จุดประกายการอภิปรายและนักวิจัยได้เรียกร้องให้มีการพัฒนาแบบจำลองพิเศษ
การเคลื่อนไหวของเมตาได้รับความสมดุลที่ละเอียดอ่อนระหว่างการส่งเสริมการพัฒนาเทคโนโลยีและความมั่นคงของชาติ แต่ก็ยังเน้นถึงความท้าทายด้านจริยธรรมและความปลอดภัยในการประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์ซึ่งจำเป็นต้องให้ความสนใจอย่างต่อเนื่องและตอบสนองอย่างระมัดระวัง การพัฒนาในอนาคตของ Open AI นั้นต้องการการค้นหาเส้นทางที่ดีที่สุดระหว่างนวัตกรรมทางเทคโนโลยีและการรับประกันความปลอดภัย