أعلنت شركة Apple مؤخرًا عن اختراق تكنولوجي رئيسي ، تخطط لدمج جناح Apple Intelligence الذكاء الاصطناعي في سماعات رأس Vision Pro الرئيسية. تمثل هذه الخطوة خطوة مهمة في مجال الواقع المختلط ، ومن المتوقع أن تعيد تعريف التجربة التفاعلية بين الإنسان والحاسوب. وفقًا لتقرير حصري لصحفي بلومبرج ، مارك جولمان ، سيتم تنفيذ برنامج التكامل في وقت مبكر من أبريل من هذا العام مع تحديثات برامج VisionOS 2.4 ، وسوف يفتح إصدارات تجريبية للمطورين هذا الأسبوع.
تم إصدار Apple Intelligence في الأصل في يونيو 2024. كخطط مهم لـ Apple في مجال الذكاء الاصطناعي ، فإنه يتضمن عددًا من الميزات المبتكرة. كشف جولمان أن شركة Apple تستكشف بنشاط كيفية إعادة تصميم أدوات AI لتناسب بيئة الواقع المختلط الفريدة من Vision Pro. هذا ليس مجرد تحد فني ، ولكنه أيضًا ابتكار كبير في تجربة المستخدم.

وفقًا لـ Resible News ، سيتضمن تحديث VisionOS 2.4 الميزات الأساسية لـ Apple Intelligence ، بما في ذلك أدوات الكتابة المتقدمة ، ومولد Genmoji Efficticon المبتكر ، ومنصة معالجة صور ملعب الصور. ستستفيد هذه الميزات بالكامل من قوة الحوسبة المكانية في Vision Pro وتحقيق تجربة تفاعلية غير مسبوقة للمستخدمين. تخطط Apple لتزويد المطورين بإصدار تجريبي هذا الأسبوع حتى يتمكنوا من تجربته مقدمًا والاستعداد لتطوير التطبيقات.
تجدر الإشارة إلى أن هذا التحديث لن يتضمن مساعد Siri Voice. وتفيد التقارير أنه بسبب مشاكل الهندسة التقنية ومواطن النظام ، سيتم تأجيل إصدار الإصدار الجديد من SIRI إلى الإصدارات اللاحقة. يعكس هذا القرار السيطرة الصارمة على Apple على جودة المنتج ، ويشير أيضًا إلى أن Vision Pro سوف تدخل في وظائف التفاعل الصوتي الأكثر قوة في المستقبل.
لا يوضح نشر Apple الاستراتيجي تراكمها العميق في مجال الذكاء الاصطناعي فحسب ، بل يوضح أيضًا طموحه في سوق الواقع المختلط. مع إضافة Apple Intelligence ، من المتوقع أن تصبح Vision Pro واحدة من أكثر الأجهزة الذكية ابتكارًا ، مما يجعل المستخدمين تجربة أكثر ذكاءً وغامرة.