أقسام الوصول السريع ( مربع البحث )

إقرأ أيضا

وكالة بريطانية تطلق أدوات مفتوحة المصدر لاختبار سلامة نماذج الذكاء الاصطناعي AI

أصدر معهد سلامة الذكاء الاصطناعي في المملكة المتحدة (UK AI Safety Institute)، وهو هيئة سلامة الذكاء الاصطناعي التي تم إنشاؤها مؤخرًا في المملكة المتحدة، مجموعة أدوات مصممة "لتعزيز سلامة الذكاء الاصطناعي" من خلال  تسهيل تقييمات الذكاء الاصطناعي للصناعة و منظمات البحث و الأوساط الأكاديمية. 

تهدف مجموعة الأدوات المسماة Inspect، والمتاحة بموجب ترخيص مفتوح المصدر MIT License، إلى تقييم قدرات نماذج الذكاء الاصطناعي مثل المعرفة الأساسية والقدرة على التفكير، وإعطاء تقييمات بناءً على هذه النتائج. و في بيان صحفي أعلن عن الخبر في شهر ماي الماضي، أكد معهد سلامة الذكاء الاصطناعي أن Inspect هو "أول منصة اختبار لسلامة الذكاء الاصطناعي تطلقها هيئة مدعومة من الدولة للاستخدام على نطاق واسع".

وقال رئيس معهد سلامة الذكاء الاصطناعي إيان هوغارث Ian Hogarth في بيان: "إن التعاون الناجح في مجال اختبارات سلامة الذكاء الاصطناعي AI يعني اتباع نهج مشترك وسهل الوصول إليه في التقييمات، ونأمل أن يكون Inspect حجر الأساس لذلك". وأضاف: "نأمل أن نرى مجتمع الذكاء الاصطناعي AI العالمي يستخدم Inspect ليس فقط لإجراء اختبارات سلامة النموذج الخاصة به، ولكن للمساعدة في التكيف والبناء على منصة المصدر المفتوح حتى نتمكن من إنتاج تقييمات عالية الجودة في جميع المجالات".

كما كتبنا من قبل، فإن معايير الذكاء الاصطناعي يعد مهمة صعبة خاصةً لأن نماذج الذكاء الاصطناعي الأكثر تطوراً اليوم عبارة عن صناديق سوداء حيث تخفي الشركات التي تطورها بنيتها التحتية وبيانات التدريب وغيرها من التفاصيل الرئيسية. فكيف يتعامل Inspect مع هذا التحدي؟ الحل يكمن في قدرته على التوسع ليشمل تقنيات اختبار جديدة بشكل أساسي. 


تتكون Inspect من ثلاثة مكونات أساسية: مجموعات البيانات (Datasets)،  و محللو المشكلات (Solvers)، والمُقيِّمون (Scorers). و توفر مجموعات البيانات عينات لاختبارات التقييم، بينما يقوم المحللون بإجراء الاختبارات. بعد ذلك، يتولى المُقَيِّمون تقييم عمل المحللين وتجميع الدرجات من الاختبارات لتكوين مقاييس تقييمية.

كما يمكن تعزيز مكونات Inspect المضمنة من خلال حزم الطرف الثالث المكتوبة بلغة بايتون Python.

و في منشور على منصة "X"، وصفت ديبورا راج Deborah Raji، وهي باحثة في Mozilla وخبيرة بارزة في أخلاقيات الذكاء الاصطناعي، Inspect بأنها "دليل على قوة الاستثمار العام في أدوات المصدر المفتوح لمساءلة الذكاء الاصطناعي AI". و من جهته، اقترح كليمنت ديلانج Clement Delangue، الرئيس التنفيذي لشركة Hugging Face الناشئة في مجال الذكاء الاصطناعي، دمج أدوات Inspect مع مكتبة نماذج Hugging Face أو إنشاء لوحة لوحة تُعرض للجمهور تُظهر ترتيب المشاركين أو النماذج بناءً على أدائهم في اختبارات أو تقييمات معينة وتُعزز الشفافية والتنافسية من خلال عرض النتائج علنًا.


يأتي إصدار Inspect بعد أن أطلقت وكالة حكومية أمريكية، المعهد الوطني للمعايير والتكنولوجيا NIST، برنامج NIST GenAI، وهو برنامج يهدف إلى تقييم تقنيات الذكاء الاصطناعي التوليدية المختلفة، بما في ذلك تلك التي تولد النصوص والصور. كما تخطط  NIST GenAI لإصدار معايير جديدة، والمساعدة في إنشاء أنظمة للتحقق من صحة المحتوى، وتشجيع تطوير برامج لاكتشاف المعلومات المزيفة أو المضللة التي ينتجها الذكاء الاصطناعي.

و في أبريل/نيسان الماضي ، أعلنت الولايات المتحدة والمملكة المتحدة عن شراكة لتطوير اختبارات نموذجية متقدمة للذكاء الاصطناعي، في أعقاب الالتزامات التي تم الإعلان عنها في قمة سلامة الذكاء الاصطناعي AI Safety Summit التي عقدت في بلتشلي بارك Bletchley Park في المملكة المتحدة في نوفمبر/تشرين الثاني من السنة الماضية. وكجزء من هذا التعاون، تعتزم الولايات المتحدة الامريكية إطلاق معهدها الخاص لسلامة الذكاء الاصطناعي AI، والذي سيتولى على نطاق واسع تقييم المخاطر الناجمة عن الذكاء الاصطناعي AI  و الذكاء الاصطناعي التوليدي Generative AI.




تعليقات

Translate




حجم الخط
+
16
-
تباعد السطور
+
2
-