ในงานสัมมนาพรมแดนปัญญาประดิษฐ์และการกำกับดูแลของจีน-สิงคโปร์ เหตุใดนักวิชาการจากจีนและสิงคโปร์จึงเทน้ำเย็นให้กับ AI
ผู้เขียน:Eve Cole
เวลาอัปเดต:2024-11-15 12:24:01

นับตั้งแต่แนวคิดเรื่องปัญญาประดิษฐ์ถูกเสนอครั้งแรกในปี พ.ศ. 2499 AI ก็ได้พัฒนาไปสู่ความฉลาดทางปัญญาโดยอาศัยความฉลาดทางคอมพิวเตอร์และความฉลาดในการรับรู้ ในช่วงไม่กี่ปีที่ผ่านมา จากการเกิดขึ้นของ ChatGPT และ sora การพัฒนา AI ได้ก้าวหน้าอย่างรวดเร็ว อย่างไรก็ตาม ในงานสัมมนาพรมแดนปัญญาประดิษฐ์และการกำกับดูแลจีน-สิงคโปร์ ซึ่งจัดโดย Chinese Academy of Engineering และ Singapore Academy of Engineering และจัดโดยมหาวิทยาลัยถงจี้ในวันนี้ (28 ตุลาคม) นักวิชาการจำนวนมากราดน้ำเย็นลงบน "ไข้ AI" “ปัญหาด้านความปลอดภัยภายนอกเครือข่ายกำลังท้าทายกระบวนทัศน์การขับเคลื่อนพื้นฐานของระบบนิเวศดิจิทัลในปัจจุบันอย่างครอบคลุม” Wu Jiangxing นักวิชาการจาก Chinese Academy of Engineering และศาสตราจารย์แห่งมหาวิทยาลัย Fudan กล่าวอย่างตรงไปตรงมาว่าเป็นเรื่องน่าเสียใจที่ทั้งระบบรักษาความปลอดภัยและ เจ้าหน้าที่รักษาความปลอดภัยเครือข่ายที่เฝ้าบ้านและบ้านพักคนชราสามารถตอบคำถามหลัก ๆ เกี่ยวกับการทรมานวิญญาณได้สามข้อ: "มีช่องโหว่ใดบ้าง" "มีประตูหลัง / ประตูกับดักหรือไม่" "มีปัญหาการซ้อนทับด้านความปลอดภัยหลายข้อหรือไม่" เขาชี้ให้เห็นอย่างจริงจังว่าระบบแอปพลิเคชัน AI ในปัจจุบันมีความไม่สมดุลที่ร้ายแรงระหว่างความรับผิดชอบด้านความปลอดภัยและความเสี่ยง ไม่มีผู้ค้ารายใดสามารถรับประกันได้ว่าผลิตภัณฑ์ของตนไม่มีช่องโหว่ด้านความปลอดภัยและประตูหลัง และไม่มีหน่วยงานทดสอบใดสามารถรับประกันได้ว่าผลิตภัณฑ์ที่ส่งมาเพื่อตรวจสอบจะปราศจากช่องโหว่และประตูหลัง นี่กลายเป็นฝันร้ายที่หลีกเลี่ยงไม่ได้ของทุกประเทศในยุค AI ในการประชุม ผู้เชี่ยวชาญหลายคนวิเคราะห์ว่าปัญญาประดิษฐ์ที่ดูเหมือนจะทรงพลังและโมเดลขนาดใหญ่ยังมีข้อบกพร่องในแง่ของการบริโภค ความปลอดภัย และจริยธรรม การพัฒนาปัญญาประดิษฐ์ยังคงอยู่บนท้องถนน และยังมีพื้นที่สำหรับการพัฒนาอีกมาก นักวิชาการจากประเทศจีนและสิงคโปร์ควรกระชับความร่วมมือและทำงานร่วมกันเพื่อชี้แนะ AI ให้ประหยัดพลังงาน ปลอดภัย และมีคุณธรรมมากขึ้น ดูเหมือนว่าปัญญาประดิษฐ์ที่ทรงพลังนั้นเต็มไป ด้วยอันตรายที่ซ่อนอยู่ เมื่อพูดถึงความเสี่ยงด้านความปลอดภัยของเครือข่าย หลายคนรู้สึกประทับใจเป็นพิเศษกับเหตุการณ์หน้าจอสีน้ำเงินของ Microsoft ที่เกิดขึ้นในเดือนกรกฎาคมปีนี้ เมื่อวันที่ 19 กรกฎาคม ผู้ใช้จากหลายประเทศทั่วโลกพบว่าคอมพิวเตอร์ของบริษัทมีหน้าจอสีน้ำเงิน โดยแจ้งว่า “อุปกรณ์ประสบปัญหาและจำเป็นต้องรีสตาร์ท ต่อมาปัญหาหน้าจอสีน้ำเงินได้รับการยืนยันว่าเกี่ยวข้องกับการอัปเดตซอฟต์แวร์ โดยบริษัทรักษาความปลอดภัยเครือข่าย Crowd Strike ในมุมมองของ Wu Jiangxing นี่คือกรณีทั่วไปของการรักษาความปลอดภัย “บอดี้การ์ด” ที่แทงมนุษย์ที่ด้านหลัง “ปัญญาประดิษฐ์และปัญหาด้านความปลอดภัยมีความสัมพันธ์กันอย่างใกล้ชิด และการรักษาความปลอดภัยเป็นข้อบกพร่องทางพันธุกรรมที่เกิดขึ้น ตัวแม่ในสถาปัตยกรรมคอมพิวเตอร์ยุคใหม่ต้องใส่ใจกับปัญหาด้านความปลอดภัยของสภาพแวดล้อมการทำงานของ AI -
ในเรื่องนี้ เจิ้ง ชิงหัว ประธานมหาวิทยาลัยถงจี้และนักวิชาการของ Chinese Academy of Engineering มีมุมมองเดียวกัน "แม้ว่าเราจะยืนยันอย่างสูงต่อความสำเร็จที่สำคัญของโมเดลขนาดใหญ่ เราก็จะต้องตระหนักอย่างลึกซึ้งว่ามีข้อบกพร่องบางประการใน โมเดลขนาดใหญ่" เจิ้ง ชิงหัวยกตัวอย่าง ประสิทธิภาพประการแรกคือ การใช้ข้อมูลและพลังการประมวลผลมากเกินไป "วันหนึ่ง ข้อมูลอันมีค่าที่มนุษย์ขุดได้จากข้อมูลโอเพ่นซอร์สบนอินเทอร์เน็ตจะถึงขีดจำกัด เช่นเดียวกับที่มนุษย์ขุดแร่โลหะหายากจากทรัพยากรแร่ ก็จะมีเวลาที่พวกมันจะหมดลง" ข้อบกพร่องประการที่สองแสดงให้เห็น ของการหลงลืมอย่างหายนะและความสามารถในการยึดเกาะที่อ่อนแอของฉาก Zheng Qinghua อธิบายว่าโมเดลขนาดใหญ่เช่นใหม่และเกลียดโมเดลเก่า และเป็นการยากที่จะอนุมานจากตัวอย่างเดียว บ่อยครั้งการปรับให้เข้ากับ A นั้นทำได้ยาก แต่การปรับให้เข้ากับ B นั้นทำได้ยาก ซึ่งหาได้ไม่ง่ายเลย ความสมดุลระหว่างทั้งสอง ประการที่สามคือความสามารถในการให้เหตุผลที่อ่อนแอ โมเดลขนาดใหญ่ใช้อัลกอริธึมการฝึกการถดถอยอัตโนมัติ ซึ่งทำให้ไม่สามารถสร้างความสามารถในการให้เหตุผลเชิงตรรกะโดยอิงจากการให้เหตุผลเชิงสาเหตุที่สร้างขึ้นโดยมนุษย์ วิธีการสร้างแบบถดถอยอัตโนมัติยังยากที่จะรับมือกับงานการให้เหตุผลที่ซับซ้อนซึ่งต้องมีการย้อนรอยและการลองผิดลองถูกซึ่งมักจะนำไปสู่ปรากฏการณ์ที่แบบจำลองขนาดใหญ่เรียนรู้ข้อมูลที่ไม่ถูกต้องเพื่อแก้ไขปัญหานี้เรียกว่า "เอฟเฟกต์เคลฟเวอร์ฮันส์" ข้อบกพร่องประการที่สี่คือโมเดลขนาดใหญ่ไม่รู้ว่ามันผิดพลาดตรงไหน และเหตุใดจึงผิดพลาด ไม่ต้องพูดถึงการแก้ไขเมื่อทราบ Zheng Qinghua กล่าวอย่างตรงไปตรงมาว่าข้อบกพร่องโดยธรรมชาติเหล่านี้ทำให้เกิดปัญหาต่างๆ เช่น ภาพหลอน และการควบคุมที่ไม่ดีในโมเดลขนาดใหญ่ "โดยเฉพาะอย่างยิ่งในการใช้งานด้านวิศวกรรมและสถานการณ์อื่นๆ ที่เราจำเป็นต้องรู้ว่าเกิดอะไรขึ้นและทำไม โมเดลขนาดใหญ่อาจกล่าวได้ว่าไร้พลัง" เหวิน หยงกัง นักวิชาการจาก Singapore Academy of Engineering และศาสตราจารย์จากมหาวิทยาลัยเทคโนโลยีนันยาง เชื่อว่าสังคมมนุษย์ กำลังเข้าสู่ยุคแห่งการเปลี่ยนแปลงแบบคู่ของยุคดิจิทัลและความยั่งยืน โดยเฉพาะอย่างยิ่งในการเปลี่ยนแปลงทางดิจิทัล กิจกรรมจำนวนมากได้เปลี่ยนแปลงจากออฟไลน์เป็นออนไลน์ ซึ่งใช้ทรัพยากรการประมวลผลและเซิร์ฟเวอร์จำนวนมาก การคาดการณ์แสดงให้เห็นว่าภายในปี 2030 ปริมาณการใช้ไฟฟ้าของศูนย์ข้อมูลในสิงคโปร์จะสูงถึง 12% ของปริมาณการใช้ไฟฟ้าทั้งหมดของสังคม สิ่งที่น่าตกใจยิ่งกว่านั้นคือการใช้ AI อย่างกว้างขวางจะช่วยเพิ่มปริมาณการปล่อยก๊าซคาร์บอนและมีผลกระทบร้ายแรงต่อสิ่งแวดล้อม
นำทาง AI ให้วิ่งไปในทิศทางที่ถูกต้อง เมื่อ AI วิ่งหลับตา มนุษย์ผู้พัฒนาเทคโนโลยีจะจับพวงมาลัยได้อย่างไร ในการประชุม ผู้เชี่ยวชาญยังให้คำแนะนำที่เป็นไปได้โดยอิงจากการวิจัยระยะยาว Wu Jiangguang ได้สร้างทฤษฎีการรักษาความปลอดภัยภายนอกและเลียนแบบการป้องกันมาตั้งแต่ปี 2013 ตามรากฐานทางทฤษฎี ทีมงานได้สร้างสถาปัตยกรรมความปลอดภัยภายนอกเพื่อเสริมศักยภาพระบบการขับขี่อัจฉริยะในห้องปฏิบัติการที่หนานจิง ระบบมีสถานการณ์แอปพลิเคชันมากกว่า 20 สถานการณ์และแอปพลิเคชันที่แตกต่างกันมากกว่า 100 รายการ โดยมีอัตราความสำเร็จในการระบุตัวตนที่ครอบคลุมมากกว่า 90% สำหรับปัญหา AI ทั่วไป เช่น การตอบโต้และช่องโหว่ทางลับๆ เจิ้ง ชิงหัวกล่าวว่าประวัติศาสตร์และประสบการณ์ได้พิสูจน์ให้เห็นว่าความก้าวหน้าของมนุษย์ในด้านวิทยาศาสตร์สมองล้วนมีข้อมูลอ้างอิง แรงบันดาลใจ และแนวทางสำหรับการวิจัยโครงข่ายประสาทเทียมและความฉลาดของเครื่องจักร "แบบจำลองขนาดใหญ่ในปัจจุบันเป็นเพียงการอ้างอิงเบื้องต้นและเรียบง่ายที่สุดเกี่ยวกับสมองของมนุษย์ หากเราสามารถดึงข้อมูลอ้างอิงในเชิงลึกจากวิทยาศาสตร์เกี่ยวกับสมอง โดยเฉพาะอย่างยิ่งกลไกของการแสดงความทรงจำ การเปิดใช้งาน การดึงข้อมูล และการเข้ารหัสการเรียกคืนซึ่งเป็นลักษณะเฉพาะของมนุษย์ เราจะ คาดว่าจะสามารถแก้ไขปัญหาที่โมเดลใหญ่ ๆ ในปัจจุบันต้องเผชิญ "มีข้อบกพร่องหลายประการ" ดังนั้นเขาจึงเสนอว่า: จีนต้องมีโมเดลอัจฉริยะของเครื่องจักรเป็นของตัวเอง ปัจจุบัน มหาวิทยาลัย Tongji กำลังเปิดขอบเขตทางวินัย โดยส่งเสริมการบูรณาการวิทยาการคอมพิวเตอร์และวิทยาศาสตร์การสมอง ศึกษาความสัมพันธ์ระหว่างหน่วยความจำสมองของมนุษย์กับหน่วยความจำของเครื่องจักร และสำรวจวิธีใหม่ๆ ในการใช้วิทยาศาสตร์สารสนเทศเพื่อศึกษาวิทยาศาสตร์เกี่ยวกับสมอง
ปัญญาประดิษฐ์ในปัจจุบันได้ทำลายขอบเขตของสาขาวิชาดั้งเดิมและขยายไปสู่สาขาวิชาเกือบทั้งหมด Guo Guisheng นักวิชาการของ Singapore Academy of Engineering และศาสตราจารย์จาก Singapore University of Technology and Design ยังเป็นสมาชิกของ AI-RAN Association อีกด้วย เป็นที่เข้าใจกันว่า AI-RAN หมายถึง "เครือข่ายการเข้าถึงวิทยุ (AI) ปัญญาประดิษฐ์ (AI)" และเป็นสมาคมอุตสาหกรรมที่มุ่งฟื้นฟูการบูรณาการปัญญาประดิษฐ์และการสื่อสารไร้สาย ตลอดจนนวัตกรรมทางเทคโนโลยีชั้นนำ Guo Guisheng แนะนำว่าโครงการที่เกี่ยวข้องกับ AI และโครงการคอมพิวเตอร์ควอนตัมจำนวนมากได้รับการส่งเสริมผ่านการเชื่อมโยงแบบสหวิทยาการ ในมุมมองของเขา การนำ AI ไปสู่การทำความดีไม่เพียงต้องแยกตัวออกจากแวดวงวิชาการเท่านั้น แต่ยังต้องเชื่อมโยงกับภูมิปัญญาระดับโลกอย่างแข็งขันอีกด้วย เขาหวังว่าในอนาคต ห้องทดลองและบริษัทจากมหาวิทยาลัยจีนจะเข้าร่วมกลุ่มเพื่อน AI และสร้างความร่วมมือกันมากขึ้น นักข่าวได้เรียนรู้ว่าสิงคโปร์ในฐานะ "เมืองหลวงแห่งปัญญาประดิษฐ์" ที่มีชื่อเสียงระดับโลก เป็นหนึ่งในประเทศแรกๆ ในโลกที่เปิดตัวยุทธศาสตร์ปัญญาประดิษฐ์ระดับชาติ และได้ดำเนินงานบุกเบิกมากมายในการกำกับดูแลด้านปัญญาประดิษฐ์ ในที่เกิดเหตุ เจิ้งชิงฮวายังเสนอว่าในอนาคต หากเราต้องการตระหนักถึงภาพที่สวยงามของ "ทุกคนมีสติปัญญา เครื่องจักรมีความฉลาด แต่ละคนมีภูมิปัญญาของตนเอง แบ่งปันภูมิปัญญาและภูมิปัญญา" ผู้เชี่ยวชาญในสาขา ปัญญาประดิษฐ์จากประเทศจีนและสิงคโปร์จำเป็นต้องทำงานร่วมกันเพื่อสร้างบางสิ่งให้กับโลกนี้