أقسام الوصول السريع ( مربع البحث )

إقرأ أيضا

التأثيرات السلبية للذكاء الاصطناعي التوليدي وكيفية مكافحتها GENERATIVE AI

  الذكاء الاصطناعي التوليدي يضر بالإنترنت، حسب باحثي Google DeepMind. 

 تأثير الذكاء الاصطناعي التوليدي على الإنترنت

يشير باحثو مختبر ديب ماند DeepMind، التابع لشركة الفابي Alphabet التي تتحكم في Google، إلى أن انتشار المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي AI يضر بالإنترنت. و جاءت هذه الخلاصة في مقال علمي كتبه ستة باحثين مرتبطين بالمختبر. المقال يحمل عنوان "سوء استخدام الذكاء الاصطناعي التوليدي: تصنيف للتكتيكات الحقيقية والرؤى". “Misuse of Generative AI: A Taxonomy of Real-World Data Tactics and Insights”


 دراسة حالة التكتيكات الضارة للذكاء الاصطناعي التوليدي Generative AI

قيم المقال 200 تكتيك ضار لاستخدام الذكاء الاصطناعي التوليدي Generative AI ، تم جمعها بين يناير 2023 ومارس 2024. يُذكر أن الذكاء الاصطناعي التوليدي هو الفرع الفرعي من الذكاء الاصطناعي AI الذي يتعامل مباشرة مع إنشاء المحتوى بناءً على تدريب مسبق للبيانات، مما يسمح بتوليد خيارات جديدة للنصوص لإنتاج الصور و الأصوات، وغيرها من المحتويات.


 تأثير المحتوى الاصطناعي AI على إدراك الواقع

تَرَاكُمُ المحتوى الذي يتم إنشاؤه بشكل متزايد بواسطة الذكاء الاصطناعي AI له تأثير سلبي على إدراك ما هو حقيقي وما هو افتراضي. و ذكر المقال بأن هناك "طمس للحدود بين العروض الحقيقية والمضللة". وفقًا لدراسة نُشرت في عام 2023، فقد ولّد الذكاء الاصطناعي التوليدي Generative AI المزيد من الصور في عام ونصف أكثر مما سجلته الكاميرات خلال 150 عامًا.


 تكتيكات سلبية لاستخدام الذكاء الاصطناعي التوليدي Generative AI

من بين إمكانيات التلاعب السلبي باستخدام الذكاء الاصطناعي التوليدي، يذكر مقال DeepMind ما يلي:

- التلاعب بالنشاط البشري. 

- تزوير الأدلة. 

- التلاعب بالحقائق لاستخدامها في النصب و الاحتيال.

كما يشير المقال إلى أن توسع التلاعب بالمحتوى المزيف، المدعوم بقدرات الذكاء الاصطناعي  AI، يمكن أن يؤثر بشكل مباشر على الثقة و الأصالة، ونزاهة أنظمة المعلومات، بل وحتى معاقبة منصات البحث مثل جوجل Google.


الاستخدامات الخبيثة للذكاء الاصطناعي التوليدي Generative AI

تؤكد الشركة أن استخدام الذكاء الاصطناعي AI لإنشاء تزييفات عميقة (deepfakes) للسياسيين والمشاهير هو الاستخدام الخبيث الرئيسي للتكنولوجيا، حيث يمثل 27٪ من الحالات المسجلة. وهذا يظهر أن استخدام التلاعب بالواقع يتجاوز استخدام الذكاء الاصطناعي AI فقط للمساعدة في الهجمات الإلكترونية.

 كيفية مكافحة التأثيرات السلبية للذكاء الاصطناعي التوليدي Generative AI؟

بالإضافة إلى القضية التكنولوجية، مثل الاستثمار الأوسع في الحلول التي تهدف إلى تحديد أن محتوى معين تم إنشاؤه بواسطة الذكاء الاصطناعي AI، يذكر المقال أن هناك حاجة إلى نهج متعدد الأوجه من مساهمة الحكومة و خبراء الصناعة و العلماء و المجتمع.

أهمية الوعي المجتمعي

الوعي المجتمعي يلعب دورًا محوريًا في مكافحة التأثيرات السلبية للذكاء الاصطناعي التوليدي Generative AI. يجب أن يكون المستخدمون على دراية بمخاطر المعلومات المزيفة وكيفية التحقق من مصادرها.

دور الحكومة في الرقابة والتشريع

الحكومات يجب أن تتبنى تشريعات ورقابة فعالة لضمان استخدام الذكاء الاصطناعي AI بشكل مسؤول. يجب وضع قوانين تجرم الاستخدامات الخبيثة للتكنولوجيا وتفرض عقوبات صارمة على المخالفين.

التعاون الدولي التكنولوجيا كحليف في مكافحة التزييف. 

التعاون الدولي بين الحكومات والشركات والمؤسسات الأكاديمية ضروري لضمان مقاربة شاملة ومتكاملة لمكافحة التأثيرات السلبية للذكاء الاصطناعي التوليدي Generative AI كما يمكن للتقدم التكنولوجي  أن يكون حليفًا قويًا في هذا الصراع اذا ما طُوِّرَتْ أدوات متقدمة للكشف عن المحتوى المزيف يمكن أن يساعد في حماية المستخدمين والحفاظ على نزاهة المعلومات.

 الخلاصة

إن مواجهة التأثيرات السلبية للذكاء الاصطناعي التوليدي تتطلب تعاونًا عالميًا ونهجًا متعدد الأوجه. يجب أن يتضافر الجهد بين التكنولوجيا المتقدمة لتطوير أدوات الكشف عن المحتوى المزيف، والتشريعات الحكومية لفرض القوانين الصارمة، والوعي المجتمعي لتعليم الأفراد حول مخاطر المعلومات المزيفة. بالإضافة إلى ذلك، يلعب التعاون الدولي بين الحكومات والشركات والمؤسسات الأكاديمية دورًا حاسمًا في حماية نزاهة وموثوقية الإنترنت كمصدر رئيسي للمعلومات. من خلال هذه الجهود المشتركة، يمكننا التصدي للتحديات التي يفرضها الذكاء الاصطناعي التوليدي GENERATIVE AI وضمان مستقبل رقمي أكثر أمانًا وموثوقية.

تعليقات

Translate




حجم الخط
+
16
-
تباعد السطور
+
2
-