أعلنت Google مؤخرًا عن المصدر المفتوح لنموذج الذكاء الاصطناعي يسمى TypesNet ، والذي يهدف إلى تحديد الأنواع الحيوانية من خلال تحليل الصور التي التقطتها الكاميرا. بينما يستخدم الباحثون مصائد الكاميرا (الكاميرات الرقمية المتصلة بمستشعرات الأشعة تحت الحمراء) على مستوى العالم لأبحاث الحياة البرية ، فإن هذه الأجهزة ، مع توفير بيانات قيمة ، تولد أيضًا كمية كبيرة من البيانات ، والتي تستغرق في كثير من الأحيان أيامًا إلى أسابيع.

لمعالجة هذا ، أطلقت Google مشروع Wildlife Insights قبل ست سنوات كجزء من برنامج Google Earth Outreach الخيري. تتيح المنصة للباحثين مشاركة صور الحياة البرية وتحديدها وتحليلها عبر الإنترنت ، وبالتالي تسريع معالجة البيانات التي تلتقط البيانات.
يقع نموذج الأنواع في قلب المنصة ، وتقول Google إن بيانات تدريب النموذج تأتي من 65 مليون صورة متوفرة للجمهور ، وكذلك من منظمات مثل معهد سميثسونيان لبيولوجيا الحفظ ، وجمعية الحفاظ على الحياة البرية ، ومتحف نورث كارولينا للعلوم الطبيعية وجمعية الحيوان في لندن. يمكن لـ Typessnet تصنيف الصور إلى أكثر من 2000 علامة ، تغطي الأنواع الحيوانية ، وتصنيفات مثل "الثدييات" أو "Fecks" والكائنات غير الآلية (مثل "المركبات").
لاحظت Google في مدونتها أن إطلاق الأنواع سيمكن المطورين والأكاديميين والشركات الناشئة المتعلقة بالتنوع البيولوجي لمراقبة التنوع البيولوجي بشكل أفضل في المناطق الطبيعية. يعد TypesNet الآن مفتوح المصدر على Github بموجب ترخيص Apache 2.0 ، مما يعني أنه متاح تجاريًا ومعظمهم بدون قيود.
تجدر الإشارة إلى أن Google ليست الشركة الوحيدة التي توفر أدوات مفتوحة المصدر لتحليل صورة مصيدة الكاميرا الآلية. تحتفظ Microsoft's "AI for Good Lab" أيضًا بإطار ذكاء اصطناعي يسمى Pytorch Wildlife ، مما يوفر نماذج تدريبية مُثبَّفة تمامًا تركز على اكتشاف الحيوانات وتصنيفها.
المشروع: https://github.com/google/cameratrapai
النقاط الرئيسية:
يساعد نموذج Google Open Source STYNETSNET AI على تحديد الحيوانات البرية وتحسين كفاءة معالجة البيانات.
تم تدريب نموذج شاشة الأنواع في 65 مليون صورة ويمكنه التعرف على أكثر من 2000 ملصقات حيوانية وأشياء.
النموذج مفتوح من مصادر على Github ، مما يتيح الاستخدام التجاري وتعزيز مراقبة التنوع البيولوجي.