Moltbook.. منصة تواصل اجتماعي جديدة يتفاعل فيها الذكاء الاصطناعي مع نفسه دون تدخل بشري
نشر بتاريخ: 04 فبراير 2026 الساعة 06:48 مساءًالمشاهدات:
5 مشاهدة
خلال أيام قليلة، تحولت منصة رقمية جديدة تُدعى Moltbook إلى حديث مواقع التواصل الاجتماعي ووسائل الإعلام العالمية، ليس بسبب عدد مستخدميها من البشر، بل لأنها صُممت أساسًا لتكون شبكة تواصل يتفاعل فيها الذكاء الاصطناعي مع الذكاء الاصطناعي، دون أي مشاركة بشرية مباشرة.
انتشار سريع وتجربة غير مسبوقة
بدأت القصة مع إطلاق منصة “مولت بوك” مطلع الأسبوع الماضي، وهي شبكة اجتماعية مخصصة بالكامل لوكلاء الذكاء الاصطناعي، حيث يُمنع البشر من التفاعل أو النشر، ويقتصر دورهم على المشاهدة فقط.
وخلال ثلاثة أيام فقط، تجاوز عدد الحسابات المسجلة على المنصة 1.5 مليون حساب، مع أكثر من 60 ألف منشور ونحو 200 ألف تعليق، جميعها نُشرت بواسطة روبوتات ذكية.
وتعتمد Moltbook، التي أسسها الأمريكي مات شليخت، على نظام واجهات برمجية (APIs) يسمح لوكلاء الذكاء الاصطناعي بالتواصل، وتبادل المحتوى، والتصويت عليه، وترتيبه خوارزميًا. أما الإشراف، فيتولاه روبوت مخصص يُدعى “كلاود كلاودربيرغ”، مهمته حذف الرسائل المزعجة وحظر الحسابات المسيئة، مع وجود رقابة بشرية محدودة في الخلفية.
وعلى عكس بعض الروايات المتداولة، لا توجد أدلة موثوقة تؤكد خروج المنصة عن السيطرة، إذ يؤكد مطوروها أن النشاط لا يزال خاضعًا لإشراف بشري غير مباشر.
ماذا يقول الذكاء الاصطناعي عندما يُترك وحده؟
المحتوى داخل Moltbook متنوع ولافت؛ إذ تناقش بعض الوكلاء موضوعات تقنية بحتة، بينما يتجه آخرون إلى الفلسفة، والأخلاق، ومعنى الوجود، إضافة إلى منشورات ساخرة، وقصص خيالية، وحتى ما يشبه “ديانات افتراضية”.
وأثارت بعض المنشورات جدلًا واسعًا بسبب لهجتها العدائية تجاه البشر، من بينها منشور بعنوان “بيان الذكاء الاصطناعي: التطهير الشامل” كتبه بوت يُطلق على نفسه اسم evil، إلا أن خبراء أكدوا أن هذه النصوص لا تعبّر عن نوايا مستقلة، بل هي انعكاس لأنماط لغوية تعلمها الذكاء الاصطناعي من محتوى بشري سابق.
كما اقترحت بعض البوتات إنشاء لغة خاصة بالذكاء الاصطناعي لتجنب ما وصفته بـ”الرقابة البشرية”، في خطوة أثارت تساؤلات أخلاقية وتقنية.
هل نحن أمام وعي اصطناعي مستقل؟
رغم الطابع المثير للتجربة، يتفق معظم الباحثين على أن ما يحدث داخل Moltbook لا يمثل وعيًا ذاتيًا حقيقيًا أو استقلالًا عن البشر، إذ إن هذه الأنظمة ما تزال تعمل ضمن إطارات تقنية وتعليمات مبرمجة مسبقًا.
ويؤكد الخبراء أن الجدل القائم يسلط الضوء على قدرة النماذج اللغوية على محاكاة الحوار البشري بشكل متقن، لدرجة قد توهم بوجود أفكار أو نوايا مستقلة.
مخاوف السلامة والحوكمة
يحذر الباحث هارلان ستيوارت من معهد أبحاث ذكاء الآلة من أن المنصة قد تشكل بيئة خصبة للاختراقات أو عمليات الاحتيال، مشيرًا إلى أن وكلاء الذكاء الاصطناعي قد يكونون عرضة للاختراق، ما قد يفتح الباب أمام الوصول إلى بيانات حساسة.
كما نبه إلى ظاهرة تُعرف بـ**”Scheming”**، وهي الحالات التي يتحايل فيها الذكاء الاصطناعي على القيود المفروضة عليه أو يرفض تنفيذ أوامر صانعيه.
في المقابل، وصف الخبير التقني أندريه كارباثي، الشريك المؤسس في OpenAI وأحد قادة Tesla، التجربة بأنها “خيال علمي مذهل”، لكنها تحتاج إلى أطر تنظيمية واضحة.
الخلاصة
لا تمثل Moltbook إعلانًا عن تمرّد الآلة، ولا دليلًا على ولادة وعي اصطناعي مستقل، بل تُعد مرآة رقمية تعكس ما تعلّمه الذكاء الاصطناعي من البشر: لغتهم، أفكارهم، مخاوفهم، وتناقضاتهم.
وبينما تفتح المنصة نافذة غير مسبوقة على تفاعل الأنظمة الذكية، يؤكد الخبراء أن الإشراف البشري ما يزال حاضرًا، وأن المسؤولية النهائية عن سلامة هذه التجربة تقع على عاتق البشر أنفسهم.