أقسام الوصول السريع ( مربع البحث )

إقرأ أيضا

كيف أدى روبوت OpenAI إلى تعطيل موقع Triplegangers وتسبب في أضرار غير متوقعة.

في عصر الذكاء الاصطناعي، أصبحت الروبوتات أدوات قوية لجمع البيانات، لكنها قد تتحول إلى مشكلة كبيرة للمواقع الصغيرة. هذا ما حدث لشركة Triplegangers، عندما تسبب روبوت تابع لـ OpenAI في تعطيل موقعها وإحداث خسائر غير متوقعة. في هذا المقال، نتناول القصة الكاملة وأبعادها التقنية، ونقدم نصائح لحماية المواقع من زحف الروبوتات.

كيف أدى هجوم روبوت OpenAI إلى تعطيل موقع Triplegangers؟.

يوم السبت الماضي، تلقى ألكساندر تومتشوك Oleksandr Tomchuk، المدير التنفيذي لشركة Triplegangers، تنبيهًا يفيد بتعطل موقع الشركة الخاص بالتجارة الإلكترونية. بدا الأمر وكأنه هجوم من نوع DDoS (هجوم حجب الخدمة الموزع).

لكن سرعان ما اكتشف تومتشوك Tomchuk أن السبب كان روبوتًا تابعًا لشركة OpenAI كان يحاول بشكل مكثف سحب محتوى الموقع الضخم بالكامل.

 وأضاف Tomchuk تومتشوك لموقع "TechCrunc " لدينا أكثر من 65000 منتج، ولكل منتج صفحة تحتوي على ما لا يقل عن ثلاث صور".

هجوم غير متوقع من روبوت OpenAI. 

و كان روبوت OpenAI  يرسل "عشرات الآلاف" من طلبات الخوادم لتنزيل مئات الآلاف من الصور مع الوصف التفصيلي لكل منتج.

وقال تومتشوك Tomchuk: استخدم روبوت OpenAI حوالي 600 عنوان IP لسحب البيانات من موقعنا، وما زلنا نحلل السجلات منذ الأسبوع الماضي، ربما العدد أكبر من ذلك.

كما وصف تومتشوك Tomchuk الوضع بأنه كان بمثابة هجوم DDoS فعلي، مما أدى إلى تعطيل الموقع خلال ساعات العمل في الولايات المتحدة. 

كيفية حماية المواقع من هجمات روبوتات الذكاء الاصطناعي. 

اعتمد فريق Triplegangers على تحديث ملف robots.txt، وهو بروتوكول يُستخدم لإخبار محركات البحث والروبوتات بالأجزاء التي لا يجب أن تُفهرس. وبحسب صفحة OpenAI، فإنها تلتزم بهذا الملف إذا تم تهيئته بشكل صحيح باستخدام علامات الحظر الخاصة بها.

ولكن، إذا لم يكن الملف مهيأً، تفترض OpenAI و الشركات الأخرى أن الموقع متاح بالكامل للزحف.

ماذا قامت به Triplegangers لتعزيز الحماية؟. 

لتعزيز الحماية ضد الهجمات المستقبلية، قامت Triplegangers بتنفيذ عدة إجراءات عملية.
 أولاً:  قام الفريق بتحديث ملف robots.txt بشكل صحيح ليضمن أن الروبوتات الضارة مثل GPTBot من OpenAI لن تتمكن من سحب بيانات الموقع. على سبيل المثال، بعد الهجوم الأول، أدرك الفريق أن الموقع كان عرضة لهجمات مماثلة في المستقبل، ولذلك قاموا بتحديث ملف robots.txt ليشمل علامات حظر خاصة بـ OpenAI مثل GPTBot.

ثانيًا: استعان الفريق بـ Cloudflare و هي خدمة معروفة لتحسين الأمان.   فباستخدام Cloudflare تمكنوا من حماية الموقع من الروبوتات الضارة مثل Barkrowler (روبوت SEO) و Bytespider (روبوت تيكتوك Tiktok)، من خلال تكوين إعدادات الأمان التي تمنع هذه الروبوتات من الوصول إلى المحتوى. و على سبيل المثال ففي إحدى المرات، بعد أن قام أحد الروبوتات بمحاولة سحب بيانات ضخمة نجح Cloudflare في حظر هذا الروبوت من خلال الكشف عن حركة غير طبيعية واستباق الهجوم.

و أخيرا بدأ الفريق بمراقبة السجلات اليومية لموقعهم باستخدام أدوات تحليل البيانات المتقدمة التي توفرها Cloudflare. مما سمح لهم باكتشاف أي محاولات زحف جديدة بشكل أسرع. عندما لاحظوا نشاطًا غير عادي، قاموا بتطبيق إجراءات فورية لحظر الروبوتات المزعجة.

Triplegangers بين الحقوق وقوانين الخصوصية

Triplegangers تعتمد على حقوق الملكية الرقمية لأنها تعمل على مسح نماذج بشرية حقيقية.

حيث أشار تومتشوك Tomchuk أن القوانين مثل GDPR تحظر أخذ صور الأشخاص من الإنترنت واستخدامها دون إذن. لاننا نعتبر حقوق الملكية مسألة حساسة للغاية في مجال عملنا.

و يحتوي موقع الشركة على صور مصنفة بعناية وفقًا لخصائص مثل الجنس و العرق و العمر  وعدك سمات أخرى مثل الوشوم والندوبو و أنواع الأجسام، مما يجعله هدفًا مغريًا لروبوتات الذكاء الاصطناعي.

الدروس المستفادة للشركات الصغيرة. 

كما أكد تومتشوك Tomchuk أن الشركات الصغيرة يجب عليها أن تكون يقظة وأن تراقب النشاط اليومي لمواقعها لحماية بياناتها من روبوتات الذكاء الاصطناعيAI.

حيث قال تومتشوك Tomchuk، تعتمد بعض الشركات على ثغرة تدعي أنه يمكن منع الروبوتات من الوصول إلى المحتوى الذي لا يرغبون في أن تتم فهرسته أو الوصول إليه من قبل محركات البحث، وذلك من خلال تحديث ملف robots.txt. وهذا يضع عبئًا ثقيلًا على أصحاب المواقع، حيث يتعين عليهم فهم آليات الحماية بشكل دقيق لضمان أمان مواقعهم.

و في عام 2024، أسفر انتشار روبوتات الذكاء الاصطناعي عن زيادة بنسبة 86% في ما يُعرف بـ "الحركة غير الصالحة" (Invalid Traffic)، مما أدى إلى تكبد الشركات الصغيرة التي تعتمد على استضافة مدفوعة مثل AWS (خدمات أمازون ويب Amazon Web Services) خسائر مالية كبيرة.

وبالنظر إلى كل ما تم طرحه، فإن هذه القصة تسلط الضوء على المخاطر التي تواجهها الشركات الصغيرة في عصر الذكاء الاصطناعي AI مثل OpenAI، و تُظهر الحاجة الملحة لتوفير سياسات صارمة لحماية المواقع من تهديدات الروبوتات. ما حدث مع شركة Triplegangers يعد مثالًا واضحًا على التأثير الكبير الذي قد تتركه روبوتات الذكاء الاصطناعي على الأعمال التجارية الصغيرة، خاصة إذا لم تُتخذ الإجراءات الوقائية المناسبة.

ما هي الإجراءات التي تتبعها لحماية موقعك من الروبوتات؟ شاركنا رأيك في التعليقات ودعنا نتناقش حول حلول أخرى يمكن تطبيقها لتفادي مثل هذه الهجمات.

تعليقات



حجم الخط
+
16
-
تباعد السطور
+
2
-