Home Arrow Icon Knowledge base Arrow Icon Global Arrow Icon الغوص العميق في تحليل صورة الذكاء المرئي في iOS 26


الغوص العميق في تحليل صورة الذكاء المرئي في iOS 26


يقدم iOS 26 تطورًا كبيرًا في تقنية الذكاء البصري من Apple ، مما يوسع قدراتها من التعرف البسيط القائم على الكاميرا إلى تحليل الصور الواسع مباشرة على محتوى الشاشة للجهاز. تعيد هذه الترقية تعريف الطريقة التي يتفاعل بها المستخدمون مع الصور والمحتوى المرئي عبر التطبيقات ولقطات الشاشة على أجهزة iPhone الخاصة بهم ، وخاصة تلك المزودة بأحدث السيليكون من Apple لمعالجة الجهاز.

نشأت الذكاء المرئي في iOS 18.2 كميزة تحكم في الكاميرا تسمح لكاميرا iPhone بوصف المناطق المحيطة وترجمة النص وتحديد كائنات مختلفة مثل النباتات والحيوانات في الوقت الفعلي. مع iOS 26 ، حولت Apple الذكاء البصري إلى أداة تحليل بصرية أكثر شمولاً لم تعد تحد من فائدتها إلى ما تلاحظه الكاميرا جسديًا ولكنه يمتد إلى محتويات الشاشة الخاصة بالجهاز ، بما في ذلك لقطات الشاشة وصور التطبيق.

من أهم ما يميز المفتاح أنه يمكن للمستخدمين تنشيط الذكاء المرئي على محتوى الشاشة عن طريق الضغط على نفس الأزرار المستخدمة لالتقاط لقطات الشاشة. يؤدي هذا الإجراء إلى واجهة تسمح للمستخدمين بالتفاعل مع تلك التي تم التقاطها للبيانات المرئية من خلال خيارات ذكية متعددة وفقًا لنوع المحتوى الذي تم اكتشافه. يمكن للنظام تشريح الصور لكائنات محددة أو شرائح نصية داخل لقطة الشاشة أو التقاط الشاشة وتقديم المعلومات ذات الصلة أو نتائج البحث أو الإجراءات المباشرة مثل إضافة أحداث التقويم أو إنشاء قوائم مهام من التفاصيل المعترف بها.

من منظور تقني ، يتم تحليل صور Visual Intelligence بواسطة AI من AID AI ، وهو جزء من النظام الإيكولوجي الأوسع "الذكاء" في Apple. يعزز هذا النظام الإيكولوجي SIRI وأدوات الكتابة وتوعية النظام الإيكولوجي عبر أجهزة Apple. يحافظ الاعتماد على معالجة الجهاز على خصوصية المستخدم من خلال تجنب تحميل البيانات على الخوادم الخارجية ، وتتطلب متطلبات المعالجة السيليكون القوي الموجود فقط في نماذج iPhone الأحدث (iPhone 15 Pro ، 16 Series ، 17 Series) و iPads و Macs متوافقة.

أنواع الكائنات التي يمكن أن تحددها الذكاء البصري قد توسعت بشكل ملحوظ. إلى جانب الحيوانات والنباتات الأساسية ، تعترف الآن بالأعمال الفنية والكتب والمعالم والمعالم الطبيعية والمنحوتات عبر كل من مدخلات الكاميرا ولقطات الشاشة. يتيح هذا التعرف على الطيف الواسع للنظام تقديم بيانات سياقية غنية ، بدءًا من تحديد الطلاء أو النحت إلى توفير التفاصيل التشغيلية حول الأعمال التجارية التي شوهدت في لقطة شاشة أو عرض كاميرا حية.

يستفيد المطورون أيضًا من هذا التعزيز من خلال التطبيق الذي تمت ترقيته API ، والذي يتيح لتطبيقات الطرف الثالث الاندماج مع الذكاء المرئي. يمكّن ذلك التطبيقات المبتكرة مثل تطبيقات اللياقة البدنية التي تستخرج خطط التمرين من لقطات الشاشة ، وتطبيقات الطهي تحويل صور الوصفة إلى قوائم البقالة ، وأدوات الإنتاجية التي تفسر صور السبورة البيضاء إلى محتوى عملي.

يتضمن أحد الأمثلة العملية لوظائف الذكاء البصري التقاط لقطة شاشة لنشرة الحدث وتوضع الذكاء الاصطناعي في تاريخ وتفاصيل الحدث ، مع القدرة على إضافتها مباشرة إلى التقويم. يمكن للنظام أيضًا إجراء عمليات البحث عن الصور المستهدفة داخل لقطة شاشة من خلال السماح للمستخدم بتدوير مناطق أو كائنات محددة على الشاشة ، وإرسالها إلى نتائج البحث عن الصور المستندة إلى الويب (مثل بحث صور Google). يمكن للمستخدمين حتى طرح chatbots مثل أسئلة chatgpt حول العناصر الموجودة في لقطة الشاشة ، وربط الذكاء المرئي مع AI المحادثة لتجربة أكثر تفاعلية.

تتجاوز ميزة تحليل الصور وتحليل المحتوى ببساطة تحديد الكائنات أو إجراء عمليات البحث ؛ يمكّن المستخدمين من اتخاذ إجراءات فورية وذات مغزى اعتمادًا على السياق. على سبيل المثال ، من خلال الذكاء المرئي ، يمكن للمرء أن يطلب الطعام من قائمة مطعم يتم رؤيته في لقطة شاشة ، أو إجراء تحفظات ، أو عرض ساعات تشغيل المكان ، أو إجراء مكالمات مباشرة باستخدام معلومات الاتصال الموجودة بصريًا. تتيح القدرة على تحليل النص ترجمات وملخصات في الوقت الفعلي وقراءة بصوت عالٍ وتعزيز إمكانية الوصول وفهم اللغة.

تم تحسين بنية الذكاء المرئي بشكل كبير للسرعة والخصوصية. تحدث استجابات وتحليلات الميزة في الوقت الفعلي بشكل كامل على الأجهزة دون الحاجة إلى اتصال بالإنترنت ، مما يتيح للمستخدمين الحصول على نتائج فورية دون وجود مخاوف من الكمون أو الخصوصية المرتبطة بالمعالجة السحابية. هذا يجعلها خطوة رائدة في الحوسبة الوعرة في السياق ، وتحويل الأجهزة من مقدمي العروض السلبية إلى المساعدين الاستباقيين الذين يفسرون ويتصرفون على البيانات البصرية.

مع iOS 26 ، تكون واجهة النظام للذكاء البصري سهلة الاستخدام وبديهية. بعد تشغيل الميزة عبر أزرار شاشة لقطة الشاشة أو التحكم في الكاميرا ، يرى المستخدمون خيارات معروضة سياقًا مثل Â اسأل ، Â â exply ، Â أو Application Application orductions "مما يتيح تفاعلًا سلسًا. يحدد محرك التحليل الذكي بذكاء نوع المحتوى - سواء كان ذلك نصًا أو فنًا أو معلمًا أو معلومات الاتصال أو تفاصيل الحدث ويقوم بضبط إخراجها وتصرفات المستخدم المتاحة وفقًا لذلك.

تبقى القيود من حيث دعم الجهاز ، حيث أن الكثافة الحسابية تعني أن القدرات الكاملة للذكاء البصري مخصصة لأكثر شرائح Apple. علاوة على ذلك ، فإن الدعم اللغوي لميزات التعرف على الكائنات معينة موجود حاليًا باللغة الإنجليزية في المقام الأول ، حيث تعمل Apple على دعم أوسع متعدد اللغات مع نضوج الميزة.

باختصار ، يمثل تحليل صورة الذكاء البصري من iOS 26 تقدمًا كبيرًا في دمج التحليل المرئي الذي يعمل بمنظمة العفو الدولية في استخدام الهاتف الذكي اليومي. تنتقل التكنولوجيا من التعرف على الكائنات القائمة على الكاميرا إلى أداة استباقية تقوم بتحويل المحتوى على الشاشة إلى رؤى قابلة للتنفيذ ، مما يمكّن المستخدمين من التفاعل مع أجهزتهم ومعلوماتهم بطرق جديدة وسائلة. تُحدد هذه الترقية خطوة تأسيسية نحو واجهات Apple المستقبلية حيث تفاعلات السياق والنية ، ومزج الرؤية ، والمعرفة ، والعمل على الجهاز للخصوصية والاستجابة.

***
يمثل التطور التفصيلي ، والوظائف ، وتكامل المطورين ، وواجهة المستخدم ، والأمثلة العملية أعلاه جوهر إمكانيات تحليل صور الذكاء المرئي في iOS 26 كما تم الإعلان عنها وتوضيحها في مختلف المصادر المتعلقة بـ Apple وتغطية الخبراء في عام 2025.