
แหล่งที่มาของภาพ: เว็บไซต์ภาษาสเปน "El Pais"
เมื่อพูดถึงกล่องดำ หลายคนนึกถึงอุปกรณ์ที่ใช้ในการบันทึกข้อมูลเที่ยวบินบนเครื่องบินหรือโรงละครขนาดเล็กที่เต็มไปด้วยความคิดถึง อย่างไรก็ตาม ในด้านปัญญาประดิษฐ์ (AI) กล่องดำถือเป็นคำสำคัญที่ไม่อาจละเลยได้
El Pais จากสเปนชี้ให้เห็นว่าเมื่อเครือข่ายประสาทเทียม AI ทำงาน แม้แต่นักวิจัยอาวุโสที่สุดก็ไม่รู้อะไรเลยเกี่ยวกับการดำเนินงานภายในของมัน การอภิปรายที่นี่ไม่เกี่ยวกับชีววิทยา แต่เกี่ยวกับอัลกอริธึม AI โดยเฉพาะอย่างยิ่งการเรียนรู้เชิงลึกที่เลียนแบบการเชื่อมต่อระหว่างเซลล์ประสาท ระบบเหล่านี้เปรียบเสมือนกล่องดำ และเป็นเรื่องยากสำหรับนักวิทยาศาสตร์ข้อมูล ผู้ที่มีความสามารถระดับสูงในแวดวงวิชาการ และวิศวกรที่ได้รับรางวัลโนเบลจาก OpenAI และ Google ที่จะเจาะลึกความลับภายในของพวกเขา
โมเดลและข้อมูลไม่ชัดเจน
นิตยสาร "Scientific American" รายงานว่ากล่องดำ AI หมายถึงระบบ AI ที่ผู้ใช้มองไม่เห็นการทำงานภายในโดยสิ้นเชิง ผู้ใช้สามารถป้อนข้อมูลลงในระบบเหล่านี้และรับเอาต์พุตได้ แต่ไม่สามารถตรวจสอบโค้ดหรือเข้าใจตรรกะที่สร้างเอาต์พุตได้
แมชชีนเลิร์นนิงซึ่งเป็นสาขาหลักของ AI ถือเป็นรากฐานสำคัญของระบบ AI เชิงสร้างสรรค์ เช่น ChatGPT การเรียนรู้ของเครื่องประกอบด้วยสามส่วนหลัก: อัลกอริธึม ข้อมูลการฝึกอบรม และแบบจำลอง อัลกอริทึมคือชุดคำสั่งของโปรแกรม ในการเรียนรู้ของเครื่อง อัลกอริทึมจะเรียนรู้ที่จะจดจำรูปแบบในข้อมูลผ่านข้อมูลการฝึกจำนวนมาก เมื่ออัลกอริธึมการเรียนรู้ของเครื่องเสร็จสิ้นการฝึกอบรม ผลิตภัณฑ์จะเป็นโมเดลการเรียนรู้ของเครื่องซึ่งเป็นส่วนที่ผู้ใช้ใช้งานจริงด้วย
ส่วนใดส่วนหนึ่งจากสามส่วนของระบบการเรียนรู้ของเครื่องอาจถูกซ่อนไว้ กล่าวคือ ใส่ไว้ในกล่องดำ โดยปกติแล้ว อัลกอริธึมจะเปิดเผยต่อสาธารณะ แต่เพื่อปกป้องทรัพย์สินทางปัญญา นักพัฒนาซอฟต์แวร์ AI มักจะใส่แบบจำลองหรือข้อมูลการฝึกอบรมลงในกล่องดำ
สถาปัตยกรรมแบบจำลองมีความซับซ้อนมากจนอธิบายได้ยาก
แม้ว่าคณิตศาสตร์ที่อยู่เบื้องหลังอัลกอริธึม AI ต่างๆ จะเป็นที่เข้าใจกันดี แต่พฤติกรรมที่เกิดจากเครือข่ายที่เกิดจากอัลกอริธึมเหล่านี้ก็ยังเข้าใจได้ยาก
ChatGPT, Gemini, Claude, Llama และเครื่องสร้างภาพใดๆ เช่น DALL-E รวมถึงระบบใดๆ ที่ใช้โครงข่ายประสาทเทียม รวมถึงแอปพลิเคชันการจดจำใบหน้าและกลไกแนะนำเนื้อหา ต่างประสบปัญหานี้
ในทางตรงกันข้าม อัลกอริธึม AI อื่นๆ เช่น แผนผังการตัดสินใจ หรือการถดถอยเชิงเส้น (มักใช้ในสาขาต่างๆ เช่น การแพทย์และเศรษฐศาสตร์) สามารถตีความได้มากกว่า กระบวนการตัดสินใจของพวกเขาง่ายต่อการเข้าใจและเห็นภาพ วิศวกรสามารถติดตามสาขาต่างๆ ของแผนผังการตัดสินใจ และเห็นได้อย่างชัดเจนว่าผลลัพธ์เฉพาะเจาะจงได้มาอย่างไร
ความชัดเจนนี้มีความสำคัญเนื่องจากจะแทรกความโปร่งใสเข้าไปใน AI และมอบความปลอดภัยให้กับผู้ที่ใช้อัลกอริธึม เป็นที่น่าสังเกตว่าพระราชบัญญัติปัญญาประดิษฐ์ของสหภาพยุโรปเน้นย้ำถึงความสำคัญของการมีระบบที่โปร่งใสและอธิบายได้ อย่างไรก็ตาม สถาปัตยกรรมของโครงข่ายประสาทเทียมเองก็เป็นอุปสรรคต่อความโปร่งใสนี้ เพื่อทำความเข้าใจปัญหากล่องดำของอัลกอริธึมเหล่านี้ เราต้องจินตนาการถึงเครือข่ายของเซลล์ประสาทหรือโหนดที่เชื่อมต่อถึงกัน
Juan Antonio ศาสตราจารย์ของสถาบัน AI ของสภาวิจัยแห่งชาติสเปน อธิบายว่าเมื่อคุณป้อนข้อมูลลงในเครือข่าย ค่าในโหนดจะทำให้เกิดชุดการคำนวณ ข้อมูลถูกเผยแพร่จากโหนดแรกในรูปแบบตัวเลขไปยังโหนดถัดไป แต่ละโหนดจะคำนวณตัวเลขและส่งไปยังการเชื่อมต่อทั้งหมด โดยคำนึงถึงน้ำหนัก (เช่น ค่าตัวเลข) ของการเชื่อมต่อแต่ละรายการ โหนดใหม่ที่ได้รับข้อมูลนี้จะคำนวณตัวเลขอื่น
เป็นที่น่าสังเกตว่าโมเดลการเรียนรู้เชิงลึกในปัจจุบันมีพารามิเตอร์นับพันถึงล้านรายการ พารามิเตอร์เหล่านี้แสดงถึงจำนวนโหนดและการเชื่อมต่อหลังการฝึก ซึ่งมีขนาดใหญ่และหลากหลาย ทำให้ยากต่อการได้มาซึ่งสมการที่มีความหมายด้วยตนเอง
ตามการประมาณการของอุตสาหกรรม GPT-4 มีพารามิเตอร์เกือบ 1.8 ล้านล้านพารามิเตอร์ จากการวิเคราะห์นี้ โมเดลภาษาแต่ละรุ่นจะใช้พารามิเตอร์ประมาณ 220 พันล้านพารามิเตอร์ ซึ่งหมายความว่าทุกครั้งที่มีการถามคำถาม จะมีตัวแปรถึง 220,000 ล้านตัวแปรที่อาจส่งผลต่อการตอบสนองของอัลกอริทึม
บริษัทเทคโนโลยีพยายามเปิดกล่องดำ
ความทึบของระบบทำให้การแก้ไขอคติและความไม่ไว้วางใจเชื้อเพลิงทำได้ยากขึ้น ปัจจุบันผู้เล่นหลักในสาขา AI ตระหนักถึงข้อจำกัดนี้ และกำลังดำเนินการวิจัยอย่างแข็งขันเพื่อทำความเข้าใจวิธีการทำงานของโมเดลให้ดียิ่งขึ้น ตัวอย่างเช่น OpenAI ใช้โครงข่ายประสาทเทียมในการสังเกตและวิเคราะห์โครงข่ายประสาทเทียมอื่น และ Anthropic ศึกษาการเชื่อมต่อโหนดและวงจรการแพร่กระจายข้อมูล
การถอดรหัสกล่องดำมีประโยชน์อย่างมากต่อโมเดลภาษา ซึ่งสามารถหลีกเลี่ยงการให้เหตุผลที่ผิดพลาดและข้อมูลที่ทำให้เข้าใจผิดที่สร้างโดย AI และแก้ปัญหาคำตอบที่ไม่สอดคล้องกัน อย่างไรก็ตาม หากไม่เข้าใจการทำงานภายในของเครือข่าย บริษัทเทคโนโลยีมักจะนำโมเดลผ่านการฝึกอบรมอย่างกว้างขวาง จากนั้นจึงปล่อยผลิตภัณฑ์หลังจากผ่านการทดสอบ วิธีการนี้อาจมีปัญหา เช่น Google Gemini สร้างภาพที่ไม่ถูกต้องเมื่อเปิดตัวครั้งแรก
แนวคิดที่ตรงกันข้ามกับกล่องดำคือกล่องแก้ว กล่องแก้ว AI หมายความว่าทุกคนสามารถมองเห็นอัลกอริธึม ข้อมูลการฝึก และแบบจำลองของมันได้ เป้าหมายสูงสุดของการถอดรหัสกล่องดำคือการรักษาการควบคุมของ AI โดยเฉพาะอย่างยิ่งเมื่อถูกใช้งานในพื้นที่ที่มีความละเอียดอ่อน สมมติว่าโมเดลแมชชีนเลิร์นนิงทำการวินิจฉัยสุขภาพของมนุษย์หรือสถานการณ์ทางการเงิน คุณอยากให้โมเดลนั้นเป็นกล่องดำหรือกล่องแก้ว คำตอบนั้นชัดเจน นี่ไม่ใช่แค่การมุ่งเน้นที่การทำงานภายในของอัลกอริธึมเท่านั้น ไม่เพียงแต่จากความอยากรู้อยากเห็นทางวิทยาศาสตร์เท่านั้น แต่ยังรวมถึงการปกป้องความเป็นส่วนตัวของผู้ใช้ด้วย