كشف منشور Information عن تفاصيل جديدة حول المرحلة التالية من تطوير المساعد الصوتي Siri، المبني على نموذج Gemini AI.

وفقًا لمصادر المنشور، اتفقت Apple وGoogle على التخصيص العميق للنموذج: ستقوم Google بتخصيص Gemini وفقًا لمتطلبات Apple، بينما سيحتفظ فريق كوبرتينو بالقدرة على تخصيص الذكاء الاصطناعي وفقًا لمعايير الجودة الخاصة به. علاوة على ذلك، لن يكون هناك أي ذكر لـ Gemini في واجهة iOS – كما هو الحال الآن مع ChatGPT، ستبقى التكنولوجيا الأساسية “وراء الكواليس”.
وفقًا للصحفيين، سيكتسب Siri المحدث معرفة متقدمة حول الموضوعات العامة دون إعادة توجيه المستخدمين إلى المتصفح، وسيتعلم تقديم الدعم العاطفي الأساسي وأداء المهام القابلة للتطبيق – بدءًا من حجز التذاكر وحتى تدوين الملاحظات.
وسيصبح المساعد أيضًا أكثر استقلالية في تفسير الطلبات الغامضة: على سبيل المثال، سيكون قادرًا على تحليل سجل الرسائل لتحديد هوية المستلم بدقة، حتى لو تم حفظ هذا الشخص في جهات الاتصال تحت اسم مختلف.
سيكون إدخال قدرات الذكاء الاصطناعي الجديدة تدريجيًا. من المتوقع إطلاق بعض الوظائف في الربيع مع إصدار iOS 26.4، ومن المتوقع إطلاق سيناريوهات أكثر تقدمًا – بما في ذلك تذكر السياق والنصائح الاستباقية – في الصيف في WWDC 2026. من بينها، مثل التوصيات بالوصول إلى المطار أولاً، مع مراعاة ظروف حركة المرور.
