«جماعات بوتات الذكاء الاصطناعي»… تهديد تقني يتجاوز المنصات ليطال السياسة والديمقراطية

السبت 24 يناير 2026 - 05:58 بتوقيت غرينتش
«جماعات بوتات الذكاء الاصطناعي»… تهديد تقني يتجاوز المنصات ليطال السياسة والديمقراطية

حذّر خبراء في الذكاء الاصطناعي وأمن المعلومات ومكافحة التضليل الإعلامي من تصاعد خطر ما يُعرف بـ «جماعات البوتات المعتمدة على الذكاء الاصطناعي»، مؤكدين أن هذا التهديد لم يعد محصورًا في الجانب التقني، بل بات يمتد ليؤثر مباشرة في الرأي العام والعمليات السياسية والديمقراطية حول العالم.

الكوثر - مقالات

قدرات تقنية متقدمة يصعب كشفها

ووفقًا للخبراء، تعتمد هذه الجماعات الرقمية على نماذج ذكاء اصطناعي متطورة قادرة على إنتاج محتوى مقنع، وإدارة نقاشات معقدة، والتفاعل بأسلوب يحاكي السلوك البشري بدرجة عالية من الواقعية. هذه الخصائص تجعل من الصعب على المستخدمين وحتى على خوارزميات المنصات الرقمية التمييز بين الحسابات الحقيقية والنشاط الآلي المنسق.

ويشير مختصون في التكنولوجيا إلى أن البوتات الحديثة لم تعد تكتفي بإعادة نشر المحتوى، بل أصبحت قادرة على صناعة السرديات، توجيه النقاشات، وخلق انطباع زائف بوجود رأي عام واسع حول قضايا معينة، ما يضعف مصداقية الفضاء الرقمي ككل.

إقرأ أيضاً:

من التضليل الرقمي إلى التأثير السياسي

على الصعيد السياسي، يحذّر خبراء من أن استخدام هذه «الجماعات الذكية» قد يتحول إلى أداة فعالة للتأثير على الانتخابات، الاستفتاءات، والنقاشات العامة، عبر نشر معلومات مضللة بشكل ممنهج ومنسق، وتضخيم مواقف سياسية محددة أو تشويه أطراف منافسة.

ويؤكد باحثون في شؤون الديمقراطية أن أخطر ما في هذه الظاهرة هو قدرتها على تقويض الثقة بالمعلومة وبالعملية الديمقراطية نفسها، إذ يصبح من الصعب على المواطن التمييز بين الرأي الحقيقي والتفاعل المصطنع، ما يفتح الباب أمام التلاعب بإرادة الناخبين.

تحديات أمام المنصات والحكومات

يرى خبراء التقنية أن الأدوات التقليدية المستخدمة حاليًا لرصد الحسابات الوهمية لم تعد كافية لمواجهة هذا الجيل الجديد من البوتات، ما يفرض على شركات التكنولوجيا الاستثمار في خوارزميات كشف أكثر تطورًا، وتعزيز الشفافية في إدارة المحتوى.

في المقابل، يشدد خبراء سياسيون على أن المواجهة لا يمكن أن تكون تقنية فقط، بل تتطلب أطرًا قانونية وتنظيمية واضحة، وتعاونًا دوليًا لمواجهة حملات التضليل العابرة للحدود، خاصة في الفترات الانتخابية والأزمات السياسية الحساسة.

بين الفائدة والمخاطر

ورغم التحذيرات، يؤكد الخبراء أن الذكاء الاصطناعي بحد ذاته ليس المشكلة، بل سوء استخدامه دون ضوابط أخلاقية وقانونية. ومع توسّع قدراته وانتشاره، يصبح وضع معايير دولية لاستخدامه في الفضاء الرقمي ضرورة ملحّة، لحماية حرية التعبير من جهة، وصون نزاهة المعلومات والديمقراطية من جهة أخرى.

خلاصة

يمثل صعود «جماعات بوتات الذكاء الاصطناعي» نقطة تقاطع خطيرة بين التكنولوجيا والسياسة، حيث يتحول التطور التقني إلى سلاح ناعم قادر على إعادة تشكيل النقاش العام والتأثير في القرار السياسي. وفي ظل هذا الواقع، يبدو أن التحدي الأكبر لا يكمن في تطوير الذكاء الاصطناعي، بل في القدرة على ضبط استخدامه قبل أن يخرج عن السيطرة.