تواجه نماذج الذكاء الاصطناعي التوليدي Generative AI models تحديات كبيرة في ضمان السلامة والدقة، حيث أظهرت الدراسات الحديثة وجود قصور في التقييمات الحالية. وسيتناول هذا المقال الأسباب الكامنة وراء هذه القصور، وكيف تؤثر على الأداء في التطبيقات العملية. سنستعرض الجهود المبذولة من قبل مختلف المؤسسات لتحسين معايير التقييم، ونسلط الضوء على الحاجة الملحة لإعادة النظر في الاختبارات لضمان أمان الذكاء الاصطناعي في العالم الحقيقي، ولكنه فعلى الرغم من الطلب المتزايد على سلامة الذكاء الاصطناعيAI و مساءلته، فقد تكون الاختبارات والمعايير الحالية غير كافية، وفقًا لتقرير جديد.
قيود تقييمات سلامة نماذج الذكاء الاصطناعي: لماذا يجب إعادة النظر في الاختبارات الحالية
كما أشار الخبراء في الدراسة إلى صعوبة تحديد أداء النموذج بناءً على نتائج المعايير، وعدم وضوح ما إذا كانت هذه المعايير تعكس قدرات النموذج الحقيقية. على سبيل المثال، قد يحقق النموذج نتائج جيدة في امتحان نقابة المحامين، لكن ذلك لا يعني بالضرورة أنه سيتمكن من حل تحديات قانونية أكثر تعقيدًا.
و قالت Mahi Hardalupas، الباحثة في ALI و المؤلفة المشاركة للدراسة، لـموقع TechCrunch: "يمكن التلاعب بمعايير التقييم من قبل المطورين
، مما يشبه رؤية ورقة الامتحان قبل الامتحان. كما يختار المطورون التقييمات التي سيتم استخدامها بشكل استراتيجي. كما أن النسخة التي يتم تقييم النموذج عليها مهمة أيضًا، حيث يمكن للتغييرات الصغيرة أن تؤدي إلى تغييرات غير متوقعة في السلوك وتتجاوز ميزات السلامة المدمجة."
كما وجدت دراسة ALI أيضًا مشاكل في "الفريق الأحمر" (red-teaming)، وهي عملية تكليف أشخاص أو فرق "لمهاجمة" النموذج للكشف عن الثغرات والعيوب. و تستخدم العديد من شركات الذكاء الاصطناعي AI الناشئة، مثل OpenAI و Anthropic، الفريق الأحمر لتقييم النماذج. ولكن، هناك نقص في المعايير المتفق عليها لهذه العملية، مما يجعل من الصعب تقييم فعالية الجهود المبذولة.
كما أخبر الخبراء مؤلفي الدراسة بأن العثور على أشخاص لديهم المهارات والخبرات اللازمة للفريق الأحمر يمكن أن يكون صعبًا، وأن الطبيعة اليدوية لعمل الفريق الأحمر تجعله مكلفًا وشاقًا، مما يشكل عقبات أمام المنظمات الصغيرة التي لا تمتلك الموارد اللازمة.
بالإضافة إلى ذلك، فإن السببين الرئيسيين لعدم تحسين تقييمات الذكاء الاصطناعي هما الضغط لإطلاق النماذج بسرعة وعدم إجراء اختبارات كافية قبل الإطلاق، مما قد يؤدي إلى ظهور مشاكل مستقبلية.
وقال Jones، أحد المتحدثين من شركة تطور نماذج أساسية، إلى أن هناك ضغطًا متزايدًا داخل الشركات لإطلاق النماذج بسرعة. و هذا الضغط يجعل من الصعب إجراء التقييمات بجدية. وأضاف أن مختبرات الذكاء الاصطناعي الرئيسية تطلق النماذج بسرعة تفوق قدرتها أو قدرة المجتمع على ضمان سلامتها وموثوقيتها.
و وصف أحد المشاركين في دراسة ALI تقييم النماذج من أجل السلامة بأنها مشكلة "غير قابلة للحل". لكن ما هو الأمل الذي تحمله الصناعة والجهات التنظيمية في إيجاد حلول لهذه المشكلة؟
كما يعتقد Mahi Hardalupas، الباحث في ALI، أن هناك طريقًا للمضي قدمًا، ولكن سيتطلب ذلك المزيد من التعاون والمشاركة من الهيئات العامة. و بخصوص هذا الأمر، أوضح قائلاً: "يجب على المنظمين وصانعي السياسات أن يكونوا واضحين بشأن متطلباتهم من التقييمات. وفي الوقت نفسه، ينبغي على مجتمع التقييم أن يتسم بالشفافية حيال القيود الحالية وإمكانات التقييمات."
بناءً على ما سبق، يقترح Hardalupas أن تطالب الحكومات بمزيد من المشاركة العامة في تطوير التقييمات، وتنفيذ تدابير لدعم "نظام بيئي" من الاختبارات من الطرف الثالث. و أن يتضمن ذلك برامج لضمان الوصول المنتظم إلى النماذج والبيانات المطلوبة.
و في هذا الإطار، يعتقد Jones أنه قد يكون من الضروري تطوير تقييمات "خاصة بالسياق" تتجاوز ببساطة اختبار كيفية استجابة النموذج لطلب، وبدلاً من ذلك، يجب أن تأخذ في الاعتبار أنواع المستخدمين الذين قد يؤثر عليهم النموذج (مثل الأشخاص من خلفيات أو أجناس أو أعراق معينة) والطرق التي قد تتعرض بها الضمانات للهجوم.
كما أضاف Jones، "سيتطلب ذلك استثمارًا في العلوم الأساسية للتقييمات لتطوير تقييمات أكثر صلابة وقابلة للتكرار و تستند إلى فهم كيفية عمل نموذج الذكاء الاصطناعي". ومع ذلك، قد لا يكون هناك ضمان كامل بأن النموذج سيكون آمنًا.
كما ذكر Hardalupas، "السلامة ليست خاصية للنماذج". وأضاف: "تحديد ما إذا كان النموذج 'آمنًا يتطلب فهم السياقات التي يستخدم فيها، ومن يتم شراؤه أو إتاحته له، وما إذا كانت الضمانات الموجودة كافية لتقليل تلك المخاطر. كما يمكن لتقييمات النموذج الأساسي أن تخدم غرضًا استكشافيًا لتحديد المخاطر المحتملة، لكنها لا يمكن أن تضمن أن النموذج آمن، ناهيك عن كونه 'آمن تمامًا'. وافق العديد من المشاركين في مقابلتنا على أن التقييمات لا يمكن أن تثبت أن النموذج آمن، ويمكنها فقط الإشارة إلى أن النموذج غير آمن."
و في الختام، تسلط الدراسة الضوء على الحاجة الملحة لتطوير معايير تقييم أكثر فاعلية وشمولية لنماذج الذكاء الاصطناعي. على الرغم من الجهود المبذولة من قبل المؤسسات المختلفة، فإن التقييمات الحالية تعاني من قصور كبير، مما يستدعي إشراك صانعي السياسات والمجتمع الأكاديمي في إيجاد حلول مبتكرة. لان التقدم في هذا المجال يتطلب استثماراً في علوم التقييم وتطوير اختبارات أكثر دقة تلبي احتياجات العالم الحقيقي، مع ضمان أن تكون هذه النماذج فعلاً آمنة وموثوقة.
تعليقات