أقسام الوصول السريع ( مربع البحث )

إقرأ أيضا

"تحذير: مستقبل الذكاء الاصطناعي وتحديات الأمان العام

تحالف غير مسبوق لتنظيم الذكاء الاصطناعي قبل أن يخرج عن نطاق السيطرة

أعلنت كل من Google و Microsoft و Anthropic و OpenAI، أربع شركات تقود سباق الذكاء الاصطناعي من الجيل الأخير، يوم الأربعاء 26 يوليوز 2023، عن إنشاء منظمة  احترافية جديدة لمكافحة المخاطر المحتملة والمرتبطة بهذه التكنولوجيا الثورية.

وبحسب البيان ، فإن المنظمة الجديدة التي أطلق عليها اسم "منتدى النموذج الحدودي " Frontier Model Forum"  ، مكلفة بتعزيز "التطوير المسؤول" لنماذج الذكاء الاصطناعي (AI) الأكثر تطوراً و "تقليل المخاطر المحتملة " وفقًا للبيان الصحفي، يتعهد أعضاء المنظمة بمشاركة أفضل الممارسات بين بعضهم البعض و مع المشرعين والباحثين والجمعيات لجعل هذه الأنظمة الجديدة أقل خطورة.

يثير الانتشار السريع للذكاء الاصطناعي التوليدي ، من خلال الواجهات التي أصبحت شائعة جدًا مثل ChatGPT من شركة  (OpenAI) و Bing من شركة  (مايكروسوفت ) Microsoft و بارد  Bard من شركة (جوجل)Google الكثير من القلق و المخاوف لدى السلطات والمجتمع المدني. من جانبه ، يقوم الاتحاد الأوروبي (EU) بوضع اللمسات الأخيرة على مشروع لائحة الذكاء الاصطناعي التي يجب أن تفرض التزامات على الشركات في هذا القطاع ، مثل الشفافية مع المستخدمين و السيطرة البشرية على  الجهاز.

إدارة  الرئيس بايدن تطالب بالتزامات لتنظيم الذكاء الاصطناعي

في الولايات المتحدة ، تعيق التوترات السياسية في الكونجرس الأمربكي أي جهد في هذا الاتجاه. لذلك فإن البيت الأبيض يشجع المجموعات المعنية على ضمان سلامة منتجاتهم بأنفسهم ، تحت شعار "الواجب الأخلاقي" ، على حد تعبير نائبة الرئيس الأمريكي كامالا هاريس في بداية مايو من السنة الجارية.

في الأسبوع الماضي ، حصلت إدارة جو بايدن على "التزامات" من شركات مثل Amazon و Anthropic و Google و Inflection و Meta و Microsoft و OpenAI لاحترام "المبادئ الثلاثة" في تطوير الذكاء الاصطناعي (السلامة والأمان و الثقة).

لذلك صممت هذه الشركات على وجه الخصوص على أن يختبروا برامجهم في المراحل الأولى، ومحاربة الهجمات السيبرانية والاحتيال ، وإيجاد طريقة لوضع علامات على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ، من أجل التحقق الواضح من صحتها كمحتوى مُنتج بواسطة الذكاء الاصطناعي.

قدرات خطيرة يمكن أن تظهر بشكل غير متوقع

لا ينكر قادة هذه الشركات المخاطر التي يمكن وقوعها، بل على العكس تمامًا. ففي شهر  يونيو الماضي، دعا سام ألتمان ، رئيس شركة OpenAI وديميس هاسابيس ، الرئيس التنفيذي لشركة  DeepMind من Google، على وجه الخصوص ، إلى مكافحة "مخاطر إنقراض البشرية" المرتبطة بالذكاء الاصطناعي.

و خلال جلسة استماع في الكونغرس ، أيد سام ألتمان فكرة   إنشاء وكالة دولية مسؤولة عن إدارة الذكاء الاصطناعي ، كما هو الحال في المجالات الأخرى. وفي  الوقت نفسه تعمل شركة OpenAI على تطوير ذكاء اصطناعي يُعرَف باسم بالذكاء الاصطناعي العام، والذي ستكون قدراته الإدراكية مشابهة لتلك الموجودة لدى البشر.

 ففي 6  يوليوز الماضي ، قامت الشركة الناشئة التي تتخذ من كاليفورنيا مقراً لها بتعريف "النماذج الحدودية" للذكاء الاصطناعي  على أنها "برامج أساسية متطورة للغاية يمكن أن تحتوي  على قدرات خطيرة قادرة  على تشكيل مخاطر جسيمة على السلامة العامة " .

كما تحذر  شركة  OpenAI مرة أخرى من أنه يمكن أن تظهر قدرات خطيرة بطريقة غير متوقعة، ومن الصعب حقًا منع حدوث  ذلك في الواقع.

على الرغم من التحديات، فإن التطور السليم للذكاء الاصطناعي قد يقدم فرصًا هائلة لتحسين حياة البشر ومساعدتهم في التغلب على التحديات العالمية. لذلك، يجب أن يكون التفكير الأخلاقي والمسؤول هو الدافع وراء تقدم هذا المجال الواعد نحو مستقبل أكثر أمانًا واستدامة.

وفي النهاية، يتعين علينا أن نعترف بأن الذكاء الاصطناعي يمثل تحولًا تكنولوجيًا هائلا في حياتنا، ونحن مسؤولون جميعًا عن ضمان أن هذا التقدم يتم بطريقة تحمي وتعزز سلامة ورفاهية المجتمع بأكمله.




تعليقات

Translate




حجم الخط
+
16
-
تباعد السطور
+
2
-