أصدرت شركة ميتا أداة جديدة مصممة لاكتشاف التحيز العنصري والجنساني داخل أنظمة الرؤية الحاسوبية.
وأظهرت العديد من نماذج الرؤية الحاسوبية تحيزًا منهجيًا ضد النساء والأشخاص الملونين. وتأمل ميتا في أن تسمح الأدوات المحسنة للمطورين باكتشاف أوجه القصور ومعالجتها بشكل أفضل.
وقدمت الشركة للباحثين إمكانية الوصول إلى FACET، أو العدالة في تقييم الرؤية الحاسوبية، وهي أداة لتقييم مدى جودة أداء نماذج الرؤية الحاسوبية عبر خصائص مختلفة، من ذلك لون البشرة.
واعتمدت FACET على أكثر من 30 ألف صورة تحتوي على 50 ألف شخص صنفها الخبراء عبر الفئات الديموغرافية المختلفة.
وتشير الشركة إلى إمكانية استخدام الأداة للإجابة على الأسئلة، مثل هل المحرك أفضل في التعرف على المتزلجين عندما يكون جنسهم المتصور ذكرًا أو هل النظام أفضل وقادر على تحديد الأشخاص ذوي البشرة الفاتحة والبشرة الداكنة وهل هذه المشكلات تتضخم عندما يكون الشخص ذو شعر مجعد وليس مستقيمًا.
وأعادت ميتا ترخيص نموذج الرؤية الحاسوبية DINOv2 بموجب ترخيص Apache 2 المفتوح المصدر، مما يسمح بالاستخدام التجاري
كما أطلقت مجموعة من نماذج التنبؤ الكثيفة المستندة إلى DINOv2 لتجزئة الصور الدلالية وتقدير العمق الأحادي، مما يمنح المطورين والباحثين مرونة أكبر لاستكشاف قدرات النموذج في المهام النهائية.
وأوضحت ميتا أن هذه الخطوة تأتي استجابة للطبيعة الصعبة لقياس العدالة في الرؤية الحاسوبية، التي غالبًا ما تفشل بسبب التسميات الخطأ المحتملة والتحيزات الديموغرافية.
وقالت ميتا في تدوينة: “من المعروف أن قياس معايير العدالة في الرؤية الحاسوبية أمر صعب، حيث إن خطر التسمية الخطأ حقيقي، والأشخاص الذين يستخدمون أنظمة الذكاء الاصطناعي هذه قد يكون لديهم تجربة أفضل أو أسوأ لا تعتمد على مدى تعقيد المهمة نفسها، بل على التركيبة السكانية”.
وأشارت الشركة إلى أنها تواصل تطوير أنظمة الذكاء الاصطناعي مع الاعتراف بالآثار الضارة المحتملة لهذا التقدم التكنولوجي في المجتمعات المهمشة تاريخيًا والممثلة تمثيلاً ناقصًا مع محاولة معالجة هذه الآثار.