หลังจากที่ Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ก้าวลงจากตำแหน่งหัวหน้านักวิทยาศาสตร์ เขาได้ร่วมก่อตั้ง Safe Superintelligence Inc. (SSI) ร่วมกับ Daniel Levy เพื่อนร่วมงานของเขา และ Daniel Gross อดีตผู้อำนวยการด้านปัญญาประดิษฐ์ของ Apple ซึ่งอุทิศตนให้กับการสร้างสติปัญญาขั้นสูงที่ปลอดภัย การเคลื่อนไหวดังกล่าวดึงดูดความสนใจอย่างกว้างขวาง โดยเฉพาะอย่างยิ่งหลังจากที่ Sutskever เคยเป็นผู้นำทีม OpenAI Super Alignment และมีส่วนร่วมในการขับไล่ Sam Altman ซีอีโอของ OpenAI ในช่วงสั้นๆ ในเดือนพฤศจิกายน 2023 การก่อตั้ง SSI ถือเป็นการเปลี่ยนแปลงของ Sutskever ในการมุ่งเน้นไปที่ความปลอดภัยด้านปัญญาประดิษฐ์จาก OpenAI ไปสู่แพลตฟอร์มที่มุ่งเน้นและเป็นอิสระมากขึ้น
Ilya Sutskever ผู้ร่วมก่อตั้ง OpenAI ได้ประกาศเมื่อเร็ว ๆ นี้ว่าเขาจะอุทิศตนให้กับโครงการผู้ประกอบการใหม่ ๆ หลังจากลาออกจากตำแหน่งหัวหน้านักวิทยาศาสตร์ของ OpenAI ในเดือนพฤษภาคมปีนี้ เขาและ Daniel Levy เพื่อนร่วมงานของ OpenAI และอดีตผู้อำนวยการด้านปัญญาประดิษฐ์ของ Apple และ Daniel Gross ผู้ร่วมก่อตั้ง Cue ประกาศว่าพวกเขากำลังร่วมก่อตั้ง Safe Superintelligence Inc. ซึ่งเป็นสตาร์ทอัพที่มีภารกิจในการสร้างปัญญาอัจฉริยะที่ปลอดภัย

ในข้อมูลที่โพสต์บนเว็บไซต์ SSI ผู้ก่อตั้งกล่าวว่าการสร้างระบบอัจฉริยะขั้นสูงที่ปลอดภัยคือ “ปัญหาทางเทคนิคที่สำคัญที่สุดในยุคของเรา” นอกจากนี้ "เรามองว่าความปลอดภัยและความสามารถเป็นหนึ่งเดียวกัน เนื่องจากปัญหาด้านเทคโนโลยีได้รับการแก้ไขผ่านวิศวกรรมที่ปฏิวัติวงการและความก้าวหน้าทางวิทยาศาสตร์ เราวางแผนที่จะพัฒนาขีดความสามารถโดยเร็วที่สุด ขณะเดียวกันก็รับประกันว่าความปลอดภัยของเราจะนำหน้าอยู่เสมอ"
ดังนั้น อะไรคือความฉลาดขั้นสูง? มันเป็นแนวคิดสมมุติที่แสดงถึงเอนทิตีทางทฤษฎีที่มีความฉลาดที่เหนือกว่ามนุษย์ที่ฉลาดที่สุดมาก
การย้ายครั้งนี้เป็นการสานต่องานของ Sutskever ที่ OpenAI เขาเป็นสมาชิกของทีม Super Alignment ของบริษัท ซึ่งรับผิดชอบในการออกแบบวิธีควบคุมระบบปัญญาประดิษฐ์ใหม่อันทรงพลัง แต่ด้วยการจากไปของ Sutskever ทีมจึงถูกยุบ ซึ่งเป็นการเคลื่อนไหวที่ถูกวิพากษ์วิจารณ์อย่างรุนแรงจากอดีตผู้นำคนหนึ่ง Jean Leike
SSI อ้างว่าจะ "พัฒนาการพัฒนาสติปัญญาขั้นสูงที่ปลอดภัยให้เป็นเส้นตรง โดยมุ่งเน้นไปที่เป้าหมายเดียวและผลิตภัณฑ์เดียว"
แน่นอนว่าผู้ร่วมก่อตั้ง OpenAI มีส่วนสำคัญในการขับไล่ CEO Sam Altman ในช่วงสั้นๆ ในเดือนพฤศจิกายน 2023 Sutskever กล่าวในภายหลังว่าเขารู้สึกเสียใจกับบทบาทของเขาในเหตุการณ์ดังกล่าว
การก่อตั้ง Safe Superintelligence Inc. จะช่วยให้ Sutskever และบริษัทอื่นๆ มุ่งเน้นไปที่การแก้ปัญหาเรื่องสติปัญญาขั้นสูงที่ปลอดภัยมากขึ้น และบรรลุเป้าหมายการพัฒนาผลิตภัณฑ์โดยมีเป้าหมายเดียว
SSI มีเป้าหมายที่จะแก้ไขปัญหาที่ท้าทายอย่างยิ่งในการสร้างระบบอัจฉริยะที่ปลอดภัย และการพัฒนาในอนาคตก็สมควรได้รับความสนใจอย่างต่อเนื่อง บริษัทใหม่ของ Sutskever จะประสบความสำเร็จในการบรรลุเป้าหมายอันทะเยอทะยานหรือไม่ จะมีผลกระทบในวงกว้างต่อสาขาปัญญาประดิษฐ์หรือไม่