أصدر معهد سلامة الذكاء الاصطناعي في المملكة المتحدة (UK AI Safety Institute)، وهو هيئة سلامة الذكاء الاصطناعي التي تم إنشاؤها مؤخرًا في المملكة المتحدة، مجموعة أدوات مصممة "لتعزيز سلامة الذكاء الاصطناعي" من خلال تسهيل تقييمات الذكاء الاصطناعي للصناعة و منظمات البحث و الأوساط الأكاديمية.
وقال رئيس معهد سلامة الذكاء الاصطناعي إيان هوغارث Ian Hogarth في بيان: "إن التعاون الناجح في مجال اختبارات سلامة الذكاء الاصطناعي AI يعني اتباع نهج مشترك وسهل الوصول إليه في التقييمات، ونأمل أن يكون Inspect حجر الأساس لذلك". وأضاف: "نأمل أن نرى مجتمع الذكاء الاصطناعي AI العالمي يستخدم Inspect ليس فقط لإجراء اختبارات سلامة النموذج الخاصة به، ولكن للمساعدة في التكيف والبناء على منصة المصدر المفتوح حتى نتمكن من إنتاج تقييمات عالية الجودة في جميع المجالات".
كما كتبنا من قبل، فإن معايير الذكاء الاصطناعي يعد مهمة صعبة خاصةً لأن نماذج الذكاء الاصطناعي الأكثر تطوراً اليوم عبارة عن صناديق سوداء حيث تخفي الشركات التي تطورها بنيتها التحتية وبيانات التدريب وغيرها من التفاصيل الرئيسية. فكيف يتعامل Inspect مع هذا التحدي؟ الحل يكمن في قدرته على التوسع ليشمل تقنيات اختبار جديدة بشكل أساسي.
تتكون Inspect من ثلاثة مكونات أساسية: مجموعات البيانات (Datasets)، و محللو المشكلات (Solvers)، والمُقيِّمون (Scorers). و توفر مجموعات البيانات عينات لاختبارات التقييم، بينما يقوم المحللون بإجراء الاختبارات. بعد ذلك، يتولى المُقَيِّمون تقييم عمل المحللين وتجميع الدرجات من الاختبارات لتكوين مقاييس تقييمية.
كما يمكن تعزيز مكونات Inspect المضمنة من خلال حزم الطرف الثالث المكتوبة بلغة بايتون Python.
و في منشور على منصة "X"، وصفت ديبورا راج Deborah Raji، وهي باحثة في Mozilla وخبيرة بارزة في أخلاقيات الذكاء الاصطناعي، Inspect بأنها "دليل على قوة الاستثمار العام في أدوات المصدر المفتوح لمساءلة الذكاء الاصطناعي AI". و من جهته، اقترح كليمنت ديلانج Clement Delangue، الرئيس التنفيذي لشركة Hugging Face الناشئة في مجال الذكاء الاصطناعي، دمج أدوات Inspect مع مكتبة نماذج Hugging Face أو إنشاء لوحة لوحة تُعرض للجمهور تُظهر ترتيب المشاركين أو النماذج بناءً على أدائهم في اختبارات أو تقييمات معينة وتُعزز الشفافية والتنافسية من خلال عرض النتائج علنًا.
و في أبريل/نيسان الماضي ، أعلنت الولايات المتحدة والمملكة المتحدة عن شراكة لتطوير اختبارات نموذجية متقدمة للذكاء الاصطناعي، في أعقاب الالتزامات التي تم الإعلان عنها في قمة سلامة الذكاء الاصطناعي AI Safety Summit التي عقدت في بلتشلي بارك Bletchley Park في المملكة المتحدة في نوفمبر/تشرين الثاني من السنة الماضية. وكجزء من هذا التعاون، تعتزم الولايات المتحدة الامريكية إطلاق معهدها الخاص لسلامة الذكاء الاصطناعي AI، والذي سيتولى على نطاق واسع تقييم المخاطر الناجمة عن الذكاء الاصطناعي AI و الذكاء الاصطناعي التوليدي Generative AI.
اقرأ كذلك
Cellebrite: الشركة الرائدة في تحليل الأدلة الرقمية ومساهمتها في تعزيز الأمن الرقمي
كيف تمكن FBI من اختراق هاتف مطلق النار على Trump في 40 دقيقة باستخدام تكنولوجيا شركة