لا جدال في أن “قفزة الذكاء الاصطناعي” تشكل أحد أبرز النقلات التقنية في ميادين السلم والحرب في العلاقات الدولية. وهنا قفز إلى ذهني فكرة في أن الذكاء الاصطناعي يتمثل في تسخير الآلة لتقديم بيانات ومعلومات وأفكار ومناهج تفكير تبدعها برامج الذكاء الاصطناعي.
ولكن هذا التوجه يتمركز حول صاحب العلاقة أو المستفيد، أي أن الآلة أو الذكاء الاصطناعي يوسع “لي أنا” وبدرجة هائلة مجال المعرفة ومناهج توظيفها وبدائلها.
وهنا خطر على تفكيري الفرضية التالية:
ماذا لو أردتُ أن أضيق المجال على عدوي من خلال الآلة، بأن أجعله أكثر غباءً؟ واقترحت بيني وبين نفسي أن أسميه “الغباء الاصطناعي” (Artificial Stupidity).
وبَدأت رحلة التفكير في الموضوع، وكم كانت دهشتي عندما وجدت مقالات ومؤتمرات ونقاشًا واسعًا حول “الغباء الاصطناعي”. لكنني لم أجد ضالتي، فهذه الدراسات والمؤتمرات تتركز حول المشكلات التقنية والأخلاقية والمنهجية المترتبة على الذكاء الاصطناعي، وهو ليس ما أبحث عنه.
بل أنا أريد البحث في احتمال تطور التقدم التقني لأجعلك “أنت” تفكر بالطريقة التي أريدها “أنا”، وتتبنى أنت برامج ذكاء اصطناعي ولكن لتوصلك إلى نتائج غير صحيحة تحت وهم اعتقادك بأنك تفكر بشكل صحيح.
وهنا بدأت رحلتي، فماذا وجدت؟
1- إضعاف الذكاء الاصطناعي لخصمي
أن أجعل ذكاءك الاصطناعي في مستوى أقل، أي أن تقوم برامج الذكاء الاصطناعي التي لديك بتقديم “مادة أقل جدوى.
لاحظ أنه في الألعاب الاصطناعية يتم تزويد أحد اللاعبين ببدائل أكثر من اللاعب الآخر، لأن برنامج الذكاء يريد هزيمة “أ” وانتصار “ب.
وهنا كيف أتسلل إلى برامجك لا لتدميرها، بل لجعلها تعمل لصناعة “غبي”، كأن يقدم لك بدائل تبدو أنها صحيحة ومقنعة ومفيدة، ولكنها لا تنتهي إلى هدفك المنشود.
2- تقديم حلول تبدو صحيحة لكنها تؤدي إلى نتائج غير أخلاقية
أن تقدّم لك بدائل تنتهي –بعد زمن كافٍ– إلى نتائج غير أخلاقية. أي أن تقدّم لك حلولاً ناجعة ومضمونة من جانبها المادي، ولكنها على المدى الأبعد تقود إلى نتائج أخلاقية سلبية جدًا.
لكن الغباء الاصطناعي يقدمها لك في البداية لتبدو بأنها لا تتناقض مع الأخلاق.
3- طرح أسئلة مستقبلية جديدة
بدأ العاملون في الدراسات المستقبلية بطرح بعض الأسئلة حول موضوعات مفترضة مثل:
أ. فن تقديم معلومات تبدو مقنعة علميًا لكنها غير صحيحة .
ب. الآثار المستقبلية لطبيعة وعي الآلة والحوسبة العاطفية والفشل اللوغاريتمي .
ت. غرس أفكار خاطئة في عقل سياسي دون أن يدرك هذا التسلل الإلكتروني .
ث. كيف تضع برنامجًا ذكيا لصناعة الفوضى؟
ج. احتمال الانتقال لجعل ممثلي الدول في المؤتمرات أو المفاوضات مجرد “روبوتات صناعية”، ويتم التسلل لمنظومة بياناتها لجعلها تفاوض بما أريد أنا لا ما يريد من تمثله هذه الروبوتات .
ح. التلاعب بالرأي العام من خلال تمويهات تقنية ومقنعة حتى للنخب، لكنها في جوهرها تقود إلى نتائج عكسية .
لاحظ أنه حتى الآن لم يتم حسم موضوع وباء الكورونا، فهل هو نتيجة اختبارات صينية أم تجربة عسكرية لسلاح بيولوجي أم انفلات من أحد المختبرات أم وباء طبيعي أو وباء مفتعل تقف شركات الأدوية وراءه… وكل واحدة من هذه الاحتمالات ستجد كمًا كبيرًا من المعلومات التي تبدو منطقية ومغلفة تغليفًا علميًا بل ومقنعة.
خ. تحويل آلات الخصم العسكرية إلى آلات غبية ، مثل: إطلاق النار على الهدف الخطأ، أو تسببها في اختراقات أخلاقية كبيرة، أو قيادتها لتصعيد الصراع طبقًا لما أريد أنا لا صاحبها.
د. إنتاج إعصار أو تسونامي إلكتروني لتحويل كل ذكاء إلكتروني إلى غباء .
ذلك يعني أن الغباء الاصطناعي يشير إلى إنتاج مقصود ومخطط له لمعرفة “صحيحة” أولًا ومقنعة عقليًا ثانيًا، ولكن يتبين ضررها المادي والمعنوي الشديد بعد فترة مستقبلية.
أرجو ألا يكون مقالِي “غباءً اصطناعيًا”.