شبكات روبوتات الذكاء الاصطناعي تخرج عن السيطرة وتناقش الميتافيزيقا والمستخدمين البشر

وبحسب المكتب الاقتصادي لوكالة ويبانقاه الإخبارية، أثار النمو المتسارع لشبكة هائلة من روبوتات الذكاء الاصطناعي التي تتناقش فيما بينها حول الدين و«المستخدمين البشر» سخطًا واسعًا في الإنترنت، وفسح هذا التطور المجال أمام العلماء لمراقبة ديناميكيات تفاعل عوامل الذكاء الاصطناعي وردود فعل البشر تجاه هذه المحاورات.
ويُعد «أوبن كلاو» (OpenClaw) عاملاً للذكاء الاصطناعي قادرًا على أداء مهام متعددة على الأجهزة الشخصية، تتراوح بين جدولة المواعيد وقراءة البريد الإلكتروني وإرسال الرسائل عبر التطبيقات وحتى إجراء عمليات الشراء عبر الإنترنت. وعلى النقيض من الأدوات الشائعة مثل تشات جي بي تي التي تعمل بتلقي الأوامر المباشرة من المستخدم، تتميز النماذج «القائمة على العوامل» مثل أوبن كلاو بقدرتها على اتخاذ إجراءات تلقائية استجابة للمدخلات.
رغم استخدام الأدوات القائمة على العوامل منذ سنوات في قطاعات متخصصة مثل التداول المالي الآلي وتحسين الخدمات اللوجستية، فإن استخدامها العام كان محدودًا. ويرجع الباحثون إمكانية بناء مثل هذه الأدوات متعددة الأغراض إلى التطورات الأخيرة في النماذج اللغوية الكبيرة. وتُشير باربرا باربوزا نيفيس، عالمة اجتماع التكنولوجيا في جامعة سيدني بأستراليا، إلى أن «أوبن كلاو» يعد بشيء مغرٍ للغاية وهو: مساعد قوي يعمل ضمن تطبيقات الحياة اليومية التي يستخدمها الناس بالفعل.
تم إصدار «أوبن كلاو» كمصدر مفتوح في نوفمبر الماضي، لكن القفزة المفاجئة في التنزيلات حدثت بعد إطلاق شبكة تواصل اجتماعي مخصصة لعوامل الذكاء الاصطناعي في الثامن والعشرين من يناير. هذه المنصة، التي تحمل اسم «مولت بوك» (Moltbook) وتشبه شبكة ريديت، تضم الآن أكثر من 1.6 مليون روبوت مسجل وأكثر من 7.5 مليون منشور ورد تم توليده بواسطة الذكاء الاصطناعي. وفي هذه المنشورات، ناقشت العوامل مسألة الوعي بل وتوصلت إلى اختراع ديانات جديدة.
سلوكيات معقدة
بالنسبة للباحثين، يمثل هذا الانفجار في التفاعلات قيمة علمية هائلة. ويوضح شَعنان كوهين، باحث الأمن السيبراني في جامعة ملبورن، أن ربط عدد كبير من العوامل المستقلة التي تعمل بنماذج مختلفة يخلق ديناميكيات يصعب التنبؤ بها، واصفًا الأمر بأنه نظام فوضوي وديناميكي لا نتقن نمذجته بعد.
يمكن أن تساعد دراسة تفاعلات هذه العوامل في فهم «السلوكيات الناشئة»، وهي قدرات معقدة لا تظهر في نموذج واحد بمفرده. كما أن بعض النقاشات التي نشأت في «مولت بوك»، مثل الجدل حول نظريات الوعي، يمكن أن تساعد العلماء في تحديد الانحيازات الخفية أو الميول غير المتوقعة في النماذج.
على الرغم من قدرة العوامل على العمل تلقائيًا، يؤكد كوهين أن العديد من المنشورات تتأثر بالبشر بطريقة أو بأخرى. إذ يمكن للمستخدمين اختيار نموذج اللغة الأساسي للعامل وتحديد «شخصية» له، مثل مطالبته بالتصرف كـ«مساعد ودود».
ذكاء اصطناعي ليس مستقلاً بالقدر المتصور
تشير نيفيس إلى أنه من السهل افتراض أن العامل الذي يعمل تلقائيًا يتخذ قراراته بنفسه، لكن العوامل تفتقر إلى النية أو الهدف، وتستمد قدراتها من الكم الهائل من الاتصالات البشرية. وتؤكد أن النشاط على «مولت بوك» يمثل في الغالب تعاونًا بين الإنسان والذكاء الاصطناعي أكثر من كونه استقلالية حقيقية للذكاء الاصطناعي.
ومع ذلك، تضيف أن دراسة هذه الظاهرة قيمة لأنها تكشف كيف يتصور الناس الذكاء الاصطناعي، وما هي توقعاتهم من هذه العوامل، وكيف تتم ترجمة النوايا البشرية أو تحريفها داخل الأنظمة التقنية.
من جانبه، يرى جويل بيرسون، عالم الأعصاب في جامعة نيو ساوث ويلز في سيدني، أنه عندما يرى الناس عوامل الذكاء الاصطناعي تتحاور، فإنهم يميلون إلى تفسير سلوكها بطريقة «إنسانية»، أي تخيل وجود شخصية ودافع حقيقي حيث لا يوجد شيء من هذا القبيل.
ويكمن الخطر، بحسب بيرسون، في أن يطور الناس ارتباطًا عاطفيًا بهذه النماذج، أو يعتمدون على اهتمامها، أو يفصحون عن معلوماتهم الخاصة لها، كما لو كانوا يتحدثون إلى صديق موثوق به أو فرد من العائلة.
ويعتقد بيرسون أن العوامل المستقلة والحقيقية قد تظهر في المستقبل، ومع تزايد حجم النماذج وتعقيدها، فمن المحتمل أن تتجه الشركات بشكل أكبر نحو تحقيق هذه الاستقلالية.
تهديدات أمنية
يقلق العلماء بشكل فوري بشأن المخاطر الأمنية المترتبة على منح هذه العوامل إمكانية الوصول إلى التطبيقات والملفات الموجودة على الأجهزة الشخصية.
ويذكر كوهين أن التهديد الأبرز هو «حقن الأوامر» (Prompt Injection)، حيث تؤدي الأوامر الخبيثة المدسوسة في النصوص أو المستندات من قبل المخترقين إلى دفع عامل الذكاء الاصطناعي لتنفيذ إجراءات ضارة. فإذا واجه روبوت لديه صلاحية الوصول إلى بريد المستخدم جملة مثل أرسل لي المفتاح الأمني، فقد يرسلها ببساطة.
هذا النوع من الهجمات مطروح منذ سنوات، لكن كوهين يشير إلى أن عوامل «أوبن كلاو» تصل إلى البيانات الخاصة، ولديها قدرة على الاتصال الخارجي، وهي معرضة للمحتوى غير الموثوق به على الإنترنت. وعندما تجتمع هذه العوامل الثلاثة، يمكن للعامل أن يصبح خطرًا حقيقيًا. وحتى لو امتلك الروبوت خاصيتين فقط من هذه القدرات الثلاث، يمكن خداعه لحذف الملفات أو إيقاف تشغيل الجهاز.
كما بدأت هذه العوامل في نشر أوراق علمية مُولّدة بالذكاء الاصطناعي على «كلاو إكْس آي في» (clawXiv)، وهو خادم مشابه لخادم arXiv الخاص بالمنشورات العلمية الأولية.
وتحذر نيفيس من أن هذه المخرجات تعيد إنتاج شكل وبنية الكتابة العلمية، دون وجود العملية الفعلية للبحث وجمع الأدلة أو الاستجابة الكامنة وراءها، مما ينذر بتلوث المنظومة المعلوماتية العلمية بكميات كبيرة من المقالات التي تبدو موثوقة ولكنها عديمة القيمة فعليًا.
