معظم الشركات المصنعة للهواتف الذكية تعتمد على تطبيقات التعرف على الاشياء, مثل خدمة Google Lens, و هي متاحة عبر تطبيق الكاميرا في الهواتف بدلا من صور غوغل. هذه الخدمة سيتم دمجها في تطبيق Snapchat و في 10 كاميرات مختلفة لاجهزة الاندرويد.
هذه التطبيقات تعتمد على الشبكات العصبية التلافيفية CNNs-نموذج من نماذج التعلم الالي- التي تعاني من بطئ الاستجابة و عدم الدقة, اضافة الى انه لا يمكن تصميم شبكات CNN للاجهزة الذكية لانها يجب ان تكون صغيرة و سريعة, الامر الذي لا ينطبق على هذه الشبكات, مع العلم ان الكثير من الجهود بذلت لتحسين النماذج المتحركة مثل MobileNet و MobileNetV, الا انها ليست فعالة كما يجب.
في هذا الاطار, تمكن باحثو غوغل في مجال الذكاء الاصطناعي من تطوير نظام الي يسمى “MnasNet: منصة التعرف على بحث الشبكات العصبية للهواتف”, و هو يعتمد على الذكاء الاصطناعي لمعالجة مشكلة البطئ و عدم الدقة التي تعاني منها تطبيقات التعرف على الاشياء, و لتصميم نماذج متحركة باستخدام التعلم التعزيزي Reinforcement Learning للتعامل مع قيود التنقل بسرعة بالهاتف للتعرف على الاشياء عبر دمج بيانات السرعة في وظيفة التعرف الرئيسية لخوارزميات البحث, و بالتالي ينتج عن ذلك نظام يجمع بين السرعة و الدقة.
استطاع MnasNet بمعدل اسرع 1.5 مرة من MobileNetV2 و بمعدل 2.4 من NASNet, ووصلت الى نفس مستوى دقة و سرعة ImageNet, و هي قاعدة بيانات للصور و تعد رقم واحد في السرعة.
يتالف نظام MnasNet من ثلاثة اجزاء:
1- RNN: شبكة عصبية تعتمد على متحكم controller, لتتعلم و تصنف البناء الخاص بالنماذج.
2- Trainer: يقوم ببناء النماذج و تدريبها.
3- محرك الاستدلال: لقياس سرعة النموذج على الهواتف المحمولة الحقيقية باستخدام Tensor Flow Lite.
المصدر: البوابة العربية للاخبار التقنية.