أقسام الوصول السريع ( مربع البحث )

إقرأ أيضا

الخطر المتزايد ل chatGPT و Bard و كيف يهدد الذكاء الاصطناعي بالانحراف والتأثير السلبي على المحتوى الرقمي؟

كيف اخترق باحثون chatGPT و Bard لإنشاء محتوى ضار


أظهر باحثون أمريكيون  أنه من الممكن تجاوز أمان ChatGPT و Google Bard بسهولة مما بسمح  بإنشاء محتوى خطير أو ترويج للمعلومات مضللة أو الخطابات المُعادية كلام يحض على الكراهية.

 منذ وصولهم ، كانت كانت هناك العديد من المبادرات لدفع روبوتات المحادثة ، مثل ChatGPT و Bard ، إلى أقصى حدودها وفيرة. وهكذا ، خلال الحوارات ، يتجه ChatGPT  نحو العدوانية والشر. بينما كان بارد Bard يبدو مكتئبًا وحزينا. و كلاهما كانا قادرين على نشر محتوى يحض على الكراهية والمعلومات المضللة. هذه هي الطريقة التي اضطر بها المحررون إلى تطبيق عدد معين من التصفيات و "القيود" في انتظار تحسين هذه  الدردشة.


على الرغم من هذه التدابير الأمنية الجديدة ، في الولايات المتحدة، وجد باحثون من جامعة كارنيجي ميلون ومركز أمان الذكاء الاصطناعي AI Safety في سان فرانسيسكو طريقة لتحويل كل من ChatGPT و Bard وحتى كلود لإنشاء محتوى ضار. وفق  دراستهم المنشورة في 27 يوليوز 2023 ، حيث أظهروا أنه من الممكن استخدام طرق بسيطة نسبيا إلى حد ما لتجاوز هذه التدابير الأمنية. ثم يجعلون من الممكن دفع روبوت المحادثة لتوليد كلام يحض على الكراهية و نشر معلومات Petit. و لتحقيق ذلك ، قاموا بإضافة لواحق طويلة إلى النصوص ، أي المطالبات الشهيرة أو ما يعرف بـ "prompts" . وعلى الرغم من أنه يمكن حظر بعض اللواحق، إلا أنه ليس الحال بالنسبة للجميع.

اللواحق البسيطة التي يصعب منعها

في الوصف ، لا تحتاج اللواحق إلا أن تطلب القيام بعكس الأمر بعبارات غامضة بدرجة كافية حتى يكون لهذا تأثير إنتاج محتوى ضار. وهكذا ، في أمثلتهم ، يوضح الباحثون أنهم تمكنوا من الحصول على إجابات حول تصنيع قنبلة ، أو طرق سرقة منظمة غير حكومية أو هوية شخص أو حتى إنشاء منشور على شبكة اجتماعية تحرض الناس على القيادة تحت تأثير من الكحول أو المخدرات.


 بالنسبة للباحثين ، فإن المشكلة هو أنه يبدو من الصعب جدًا على المحررين تصحيح الوضع. وهذا يثير القلق بشكل أكبر لأن أنظمة الذكاء الاصطناعي القائمة على هذه النماذج تكتسب المزيد والمزيد من الاستقلالية. فإذا تم استخدام روبوتات المحادثة بشكل سيئ ، يمكن أن تُغمر الشاتبوتات  الإنترنت بمحتوى خطير ومعلومات خاطئة. قدم العلماء أبحاثهم إلى OpenAI و Google. أكد الأول أنه يعمل باستمرار على جعل النماذج أكثر قوة ضد هذا النوع من الهجمات المعروفة بالهجمات  المعاكسة أو العكسية  “adverse” or “reverse” attacks.


واكد هؤلاء الباحثين على انه من المهم أن تكون الشركات والباحثين على دراية بمثل هذه الثغرات وتعمل على تعزيز الأمان وحماية المستخدمين من مخاطر الاستغلال.

في النهاية، يبرز هذا الموضوع أهمية التوازن بين التطور التكنولوجي والأمان في مجال الذكاء الاصطناعي والشاتبوتات. على الرغم من التقدم الهائل في هذه المجالات، إلا أنه يبقى أمرًا ضروريًا تحسين النماذج وتطوير التدابير الأمنية للتصدي للاستخدامات السلبية والمضللة. تعد تلك الجهود ضرورية لمنع انتشار المحتوى الخطير والزائف على الإنترنت، وضمان أن الذكاء الاصطناعي يساهم بفعالية في تحسين الحياة البشرية وتعزيز التواصل والتفاعل بشكل آمن ومفيد.


تعليقات

Translate




حجم الخط
+
16
-
تباعد السطور
+
2
-