أبل تدمج الذكاء الاصطناعي بعمق في كاميرا iOS 27 لتحليل العالم المحيط فورياً
٣٠ أبريل ٢٠٢٦ في ١١:٥١ ص٠ مشاهدة

تستعد شركة أبل لإحداث نقلة نوعية في تفاعل المستخدم مع واقعه عبر تحديث iOS 27. تتيح الميزة الجديدة تحليلاً بصرياً فورياً للمشاهد عبر الكاميرا بمساعدة الذكاء الاصطناعي.
تتسارع وتيرة الابتكار في قطاع التقنية العالمي، حيث تتجه الأنظار نحو كيفية دمج الذكاء الاصطناعي في الحياة اليومية للمستخدمين. ومن المتوقع أن تلعب الأجهزة الذكية دوراً محورياً في هذا التحول، لتتجاوز وظيفتها التقليدية كأدوات تواصل لتصبح وسيلة لفهم البيئة المحيطة.
وفي تقرير لصحيفة أخبار خالي، يبدو أن شركة أبل تستعد لإطلاق تحديث ضخم لنظام iOS 27، والذي يركز بشكل أساسي على تعميق دمج الذكاء الاصطناعي داخل تطبيق الكاميرا. وبحسب متابعة أخبار خالي لتقارير وكالة "بلومبرغ" وموقع "digitaltrends"، تعمل الشركة على نقل تقنيات الذكاء البصري لتكون جزءاً أصيلاً من واجهة التصوير بدلاً من ربطها بأزرار جانبية.
ومن المنتظر أن يظهر خيار جديد يعتمد على مساعد Siri مدمجاً مع أوضاع التصوير المعتادة مثل Photo وVideo، مما يتيح للمستخدم الوصول إلى الميزات الذكية بسرعة ويسر. وتعتمد هذه الميزة على تقنيات Visual Intelligence الحالية، حيث يمكن للمستخدم توجيه الكاميرا نحو أي عنصر للحصول على معلومات فورية، سواء للتعرف على الأشياء، قراءة الملصقات، أو عرض بيانات مرتبطة بالمشهد.
قد يتم دعم هذه النتائج عبر خدمات خارجية مثل تقنيات تشات جي بي تي أو البحث العكسي عن الصور، مما يعزز قدرات التحليل الفوري داخل النظام. يمثل هذا التوجه جزءاً من استراتيجية أبل لجعل الذكاء الاصطناعي جزءاً طبيعياً من الاستخدام اليومي، محولاً الكاميرا من مجرد أداة لالتقاط الصور إلى منصة تفاعلية لفهم العالم.
يتوقع أن يتم الكشف عن هذه الميزات خلال مؤتمر المطورين WWDC في يونيو المقبل، على أن يصل التحديث للمستخدمين لاحقاً. كما تشير التقارير إلى أن أبل تعمل بالتوازي على تطوير أجهزة مستقبلية مثل نظارات ذكية ونسخ محسنة من AirPods تعتمد على تقنيات مشابهة للتحليل البصري في الوقت الحقيقي، مما يؤكد توجه الشركة نحو تحويل الآيفون إلى منصة ذكية شاملة.