الثلاثاء، 8 أبريل 2025
التوفيق بين أنظمة الأسلحة الآلية والمسألة الخوارزمية: مقترح دولي لحوكمة الذكاء الاصطناعي
١٦ أكتوبر ٢٠٢٣ |
بقلم فيليب ألكسندر*
أولا: المقدمة
في وقت سابق من هذا العام، أعلنت شركة جوجل عن "الرمز الأحمر" في مقرها الرئيسي في كاليفورنيا، موجهةً موظفيها لإعطاء الأولوية لتطوير مشاريع الذكاء الاصطناعي الأحدث والأكثر تقدمًا ، حيث وصف الرئيس التنفيذي سوندار بيتشاي الذكاء الاصطناعي بأنه "الكهرباء أو النار" التالية. والجدير بالذكر أن التركيز على ChatGPT وخليفته GPT4 قد رفع مجال الذكاء الاصطناعي إلى مستوى ثوري في التكنولوجيا . إن الفوائد الناجمة عن هذه الحركة العالمية في الطب واللغة والهندسة كبيرة بلا شك. ومع ذلك، تكمن في الطرف الآخر من طيفها الواسع مجموعة من الذكاء الاصطناعي العالمي المزعزع ( GDAI )، والذي يمكن أن يكون له آثار بعيدة المدى على الحياة والحرية والإنسانية. تدرس هذه المذكرة صعود وتأثيرات هذا الذكاء الاصطناعي وتضع إطارًا دوليًا للحوكمة يوازن بين التكنولوجيا الآلية والقانون الإنساني الدولي والمساءلة الخوارزمية. وأركز بشكل خاص على أنظمة الأسلحة المستقلة ( AWS ) كمثال على GDAI، حيث يتم تحديد العلاقة بين التكنولوجيا الآلية وحقوق الإنسان بوضوح.
إن تطور القانون الدولي وانتشار التكنولوجيا العسكرية يتناسبان طرديًا. ففي عام 1648، صيغت معاهدة وستفاليا لتقييد أسلحة البارود بعد حرب الثلاثين عامًا. وفي عام 1918، أدت الحرب العالمية الأولى وظهور حرب الخنادق العسكرية إلى تشكيل المحكمة الدائمة للعدل الدولي . وأخيرًا، شكلت الأسلحة النووية المستخدمة في الحرب العالمية الثانية الأساس المنطقي وراء مفهوم الأمم المتحدة . وفي عام 2023، نعيش في مرحلة من الأسلحة توصف بأنها "الموجة الثالثة من الحرب"، حيث تحدد الأنظمة الآلية المدعومة بالذكاء الاصطناعي معالم الحرب العسكرية . فعلى سبيل المثال، أعلنت إيران عن تطويرها لسلسلة من الدبابات المصغرة الآلية التي تحمل أسلحة من الدرجة العسكرية. وفي حالة أخرى، صممت شركة تكنولوجيا الدفاع التركية STM طائرة بدون طيار قتالية ذاتية التشغيل بالكامل، وهي Kargu-2 ، القادرة على الذخيرة الموجهة بدقة. وقد استخدمت هذه الطائرات بدون طيار لأول مرة في الصراع الليبي الداخلي عام 2020 والآن في الصراع المسلح بين روسيا وأوكرانيا .
يثير التوجه الناشئ نحو الأسلحة الآلية تساؤلات حول مدى إلحاح تطوير آليات تنظيمية تُنظّم هذه الأسلحة. هل ينبغي للمجتمع الدولي أن يدفع باتجاه صياغة إطار عمل يتألف من قوانين مرنة وأخرى صارمة تُحدّد بوضوح حدود الهندسة الآلية؟ وكما يقول بيتر سينجر، الخبير في هندسة الطائرات المسيرة، فإن "ذكاء الطائرات المسيرة واستقلاليتها يتزايدان، والقانون غير مُهيأ لذلك ". في القسم التالي، سأتناول قانونية أنظمة الأسلحة الآلية وأقترح إطارًا إداريًا مُتدرّجًا يُوفق بين هذه الأسلحة والقانون الدولي الإنساني.
ثانيًا: عدم القدرة على التنبؤ بالخوارزميات
يتضمن القانون الإنساني الدولي، وهو مجموعة قواعد تهدف إلى الحد من آثار النزاعات المسلحة، مبدأين أساسيين لصلاحية نظام الأسلحة الهجومية: مبدأ الحيطة ومبدأ التمييز. يُرشد هذان المبدآن سلوك الأطراف المتحاربة أثناء النزاعات المسلحة، وقد أصبحا قانونًا دوليًا عرفيًا من خلال ممارسات الدول.
وينص مبدأ الاحتياط المنصوص عليه في المادة 57(1) من البروتوكول الإضافي الأول لاتفاقية جنيف على أن "في إدارة العمليات العسكرية، تُبذل عناية متواصلة لحماية السكان المدنيين والأشخاص والأعيان المدنية. ويؤكد مبدأ الحيطة على الجهد المتواصل والدؤوب اللازم لحماية أرواح المدنيين أثناء العمليات العسكرية. ويشدد على أهمية اتخاذ التدابير اللازمة لتجنب أو تقليل الضرر غير المقصود الذي يلحق بغير المقاتلين، مثل تأكيد الأهداف كأهداف عسكرية مشروعة، والسماح بإلغاء أو تعليق الهجمات إذا كان المدنيون معرضين للخطر، وتوجيه تحذيرات عند الإمكان لحماية السكان المدنيين.
قررت الدائرة الابتدائية للمحكمة الجنائية الدولية ليوغوسلافيا السابقة في قضية المدعي العام ضد كوبريشكيتش أن المادة 57 من البروتوكول الإضافي الأول لعام 1977 قد اكتسبت صفة القانون الدولي العرفي. وقد تم التوصل إلى هذا الاستنتاج بناءً على عاملين: المادة 57 توسعت وشرحت المعايير العرفية القائمة. ثانيًا، لوحظ أنه لا يبدو أن أي دولة، بما في ذلك الدول التي لم تصدق على البروتوكول، تنازع على صحة هذا الحكم. ويُعد هذا المبدأ أيضًا بديهية أساسية في العديد من الوثائق القانونية والأدلة المتعلقة بالشؤون العسكرية وقرارات الهيئات القضائية وشبه القضائية الدولية والمحلية، مما يشير إلى ترقيته إلى ممارسة حكومية.
ينص مبدأ التمييز على وجوب التمييز بين المدنيين والمقاتلين في أي نزاع مسلح عسكري، حيث "يكون الهدف المشروع الوحيد الذي ينبغي للدول السعي لتحقيقه أثناء الحرب هو إضعاف القوات العسكرية للعدو". وكما وصفته محكمة العدل الدولية في الرأي الاستشاري النووي بأنه "مبدأ لا ينتهك من مبادئ القانون الدولي العرفي"، فهو مُدوّن في المادتين 48 و52(2) من البروتوكول الإضافي الأول، ويُشكل أحد المبادئ الأساسية للقانون الدولي الإنساني.
إن مصدر القلق الرئيسي بشأن AWS وغيرها من GDAI والذي قد يعيق حقوق الإنسان هو عدم القدرة على التنبؤ المرتبطة بالخوارزميات المستخدمة لتشغيل هذه التقنية. تتم برمجة أنظمة الآلة "التلقائية" للاستجابة للقواعد ، حيث يتم اتباع "إذا X، فاتبع Y". لا تثير هذه الأنظمة بالضرورة مخاوف بشأن قابليتها للتنبؤ. ومع ذلك، تم تصميم AWS باستخدام التعلم الآلي ، حيث يستجيب البرنامج باستمرار للعوامل الخارجية ويبني على مستودع المعرفة الحالي الخاص به، تمامًا مثل طريقة عمل ChatGPT. إذا تعطل تشغيل هذا النوع من البرامج في أي وقت أثناء النزاع المسلح، مما تسبب في ضرر للمدنيين، فإنه ينتهك القانون الإنساني والدولي العرفي.
توجد حالات عديدة من التحيز والتمييز الخوارزمي، حيث يُخطئ الذكاء الاصطناعي في فهم المعلومات. ومع ذلك، لا يُمكن تحميل أي طرف في النزاع المسلح مسؤولية هذا النوع من الانتهاكات نظرًا لغياب النية والمعرفة اللازمتين لإثبات جريمة بموجب القانون الجنائي الدولي . في الأقسام التالية، سأناقش أولًا أمثلة على التحيز الخوارزمي، مُقدمًا سابقةً حول عدم القدرة على التنبؤ بخوارزميات التعلم الآلي. ثم سأضع إطارًا لحوكمة الذكاء الاصطناعي يسعى إلى سد بعض الثغرات في الوضع الراهن.
التحيز الخوارزمي
الخوارزميات في سياق التعلم الآلي هي أساليب حسابية تستخدم نماذج رياضية لاكتشاف الأنماط الكامنة في البيانات وفهمها. تستطيع هذه الخوارزميات تمييز الأنماط، وتصنيف المعلومات، ووضع تنبؤات بناءً على تعلمها من البيانات الموجودة، والمعروفة باسم مجموعة التدريب. هناك اعتماد مفرط على موضوعية هذه الخوارزميات المستخدمة في الذكاء الاصطناعي. تُعرف هذه الظاهرة باسم "غسل الرياضيات"، حيث تُعامل مخرجات الذكاء الاصطناعي كقيمة مطلقة، محصنة ضد أي خطأ. ينبع هذا التصور من حقيقة أن الرياضيات تُشكل الأساس الجوهري لوجود الذكاء الاصطناعي، وهي موضوعية بطبيعتها. ومع ذلك، يحتاج هذا النهج إلى مراجعة نظرًا لتوفر توثيق جيد للتحيز الخوارزمي في العديد من الحالات في المجال العام.
كشفت دراسة أُجريت عام ٢٠١٩ أن خوارزمية شركة أوبتوم، مُقدّم خدمات التأمين الصحي، أظهرت تحيزًا عنصريًا بتفضيلها المرضى البيض الأصحاء في الحصول على التغطية التأمينية والأدوية، بينما أهملت المرضى السود الأكثر مرضًا. في البداية ، اقترحت الخوارزمية تقديم رعاية إضافية لـ ١٧.٧٪ فقط من المرضى السود. ومع ذلك، إذا أُزيل هذا التحيز، فسترتفع نسبة المرضى السود الموصى بهم للحصول على رعاية إضافية إلى ٤٦.٥٪.
في دراسة أخرى أجراها معهد ماساتشوستس للتكنولوجيا، تم اكتشاف أن هامش الخطأ لثلاثة برامج مختلفة للتعرف على الوجه كان 0.8٪ للرجال البيض ولكن 35٪ للنساء الملونات. كما تم توثيق التحيز الخوارزمي في محاكمات الملاحقة الجنائية. إن ملف تعريف إدارة المجرمين الإصلاحيين للعقوبات البديلة، أو COMPAS باختصار، هو خوارزمية تنبؤية تقيم خطر العودة إلى الإجرام، أو احتمالية معاودة شخص ما للإجرام في المستقبل. وقد تم اعتماد هذا البرنامج في ولايات مثل كاليفورنيا وفلوريدا ونيويورك وويسكونسن. ومع ذلك، وجد تقرير أن المجرمين السود كانوا أكثر عرضة بمرتين تقريبًا لتصنيفهم مع احتمال خطر العودة إلى الإجرام بنسبة 48٪، مقارنة بالمجرمين البيض بنسبة 28٪. في عام 2014، ألقي القبض على بريشا بوردن ، وهي امرأة سوداء، بتهمة السطو والسرقة البسيطة. صنفها برنامج COMPAS على أنها "عالية الخطورة" لجرائم العنف في المستقبل. من ناحية أخرى، أُلقي القبض على فيرنون براتر ، وهو رجل أبيض له تاريخ من التهم الجنائية المتعددة، بتهمة مماثلة، ولكن صُنِّف بأنه "منخفض الخطورة" للعودة إلى الإجرام. اليوم، أُطلق سراح بوردن من السجن دون أي تهم جنائية معلقة، بينما عاد براتر إلى السجن ويقضي حاليًا عقوبة بالسجن ثماني سنوات.
هذه مجرد أمثلة على مدى عدم موثوقية الذكاء الاصطناعي والتعلم الآلي. إن دمج خوارزميات غير متوقعة في الأسلحة العسكرية قد يُسفر عن آثار كارثية على حياة الإنسان. لهذا السبب، يجب تنظيم خدمات الويب المتقدمة (AWS) حتى لا تتخذ الدول ذات الجيوش القوية قرارات عشوائية دون دراسة عواقبها المحتملة. في القسم التالي، أقترح إطارًا ثنائي المستوى لحماية حياة المدنيين، يوازن بين ضرورة اتخاذ القرارات الآلية أثناء النزاعات المسلحة ومبادئ المساءلة الخوارزمية والقانون الدولي الإنساني.
ثالثًا. مقترح حوكمة دولية لخدمات أمازون ويب
يتزايد الشعور بالإلحاح في نقاش تنظيم الخوارزميات. فقد أعلن مجلس أوروبا مؤخرًا أنه بصدد صياغة "اتفاقية الذكاء الاصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون". وقد قدمت أورسولا فون دير لاين، رئيسة المفوضية الأوروبية، مقترحًا لقانون الذكاء الاصطناعي بهدف "معالجة الغموض والتعقيد والتحيز، ودرجة معينة من عدم القدرة على التنبؤ، والسلوك شبه المستقل لبعض أنظمة الذكاء الاصطناعي، وذلك لضمان توافقها مع الحقوق الأساسية وتسهيل إنفاذ القواعد القانونية". كما تعمل إدارة بايدن على حوكمة الذكاء الاصطناعي، حيث أصدرت مخططًا لقانون حقوق الذكاء الاصطناعي يتضمن "مبادئ ينبغي أن توجه تصميم واستخدام ونشر الأنظمة الآلية لحماية الجمهور الأمريكي في عصر الذكاء الاصطناعي". يوفر الزخم الكامن وراء الذكاء الاصطناعي الفرصة المناسبة لتطوير قوانين محلية ودولية أكثر تنظيمًا لأنواع محددة من الذكاء الاصطناعي، مثل خدمات الويب الأمازونية (AWS). وفي القسم التالي، سأتناول إطار الحوكمة الدولي الذي يمكن للدول اعتماده كهيكل محتمل لتنظيم خدمات الويب الأمازونية.
يتألف مقترح هذا الإطار من مستويين. تسمح اقتراحات المستوى الأول بتطوير واستخدام أنظمة الأسلحة النارية أثناء النزاعات المسلحة، مع فرض قيود مصاحبة تحمي حياة المدنيين. ستحدد هذه القيود بوضوح حدود أنظمة الأسلحة النارية بما يتوافق مع قواعد القانون الدولي الإنساني. أما قيود المستوى الثاني، فتشمل قيودًا أكثر صرامة وقابلية للتنفيذ على أنظمة الأسلحة النارية، يمكن للدول سنّها وفقًا لتقديرها، إما بشكل منفرد، أو ثنائيًا مع دولة أخرى، أو متعدد الأطراف مع عدة دول. سيحدد قانون متعدد المستويات بدقة مدى السماح باستخدام أنظمة الأسلحة النارية امتثالًا للقانون الدولي الإنساني، مع وضع آليات أكثر صرامة لإسناد المسؤولية.
المستوى الأول
أولاً، يجوز للدول اعتماد إعلان يسمح صراحةً بتطوير التعلم الآلي في الأسلحة العسكرية بما يراعي حياة المدنيين. ويشكل هذا الإعلان توصياتٍ وإرشاداتٍ وقراراتٍ غير ملزمة، وهو بمثابة صكٍّ قانونيٍّ غير ملزم يضع معاييرَ معياريةً لما يُتوقع وما لا يُتوقع من الدول الأعضاء فيما يتعلق بأنظمة الأسلحة الآلية. كما سيوضح هذا الصكُّ خرقَ القواعد اللازمة لتفعيل مسؤولية الدولة، بما في ذلك نطاق القانون الدولي الإنساني وطبيعته، والمدوَّن أساسًا في اتفاقيات جنيف الأربع وبروتوكوليها الإضافيين.
المستوى الثاني
يتضمن المستوى الثاني قيودًا ملزمة وقابلة للتنفيذ تستند إلى المساءلة الخوارزمية، على عكس القواعد العامة للقانون الدولي الإنساني، التي يجب على الدول الالتزام بها بدقة عند هندسة خوارزميات AWS. المساءلة الخوارزمية هي العملية التي يُحمّل فيها مطورو الخوارزميات مسؤولية المواقف التي تُصدر فيها الخوارزمية قرارًا له تأثير سلبي متفاوت على فرد أو مجموعة من الأفراد. من شأن معايير المساءلة الأشدّ أن تُحسّن الشفافية بشكل كبير في تطوير الذكاء الاصطناعي، مما يُتيح للجمهور فهمًا أفضل لما يُدخل في بناء الخوارزميات المستخدمة في AWS.
إن اتباع نهج أضيق نطاقًا، كما هو متبع في قيود المستوى الثاني، من شأنه أن يُسهّل بشكل كبير تتبع وتحديد المسؤولية عن السلوك غير القانوني العرضي أو المتعمد. ويجب تطبيق هذه المبادئ بالتزامن مع فرض عقوبات على الانتهاكات، وأن تعمل بالتزامن مع قواعد القانون الدولي الإنساني، مما يُنشئ إطارًا تنظيميًا متينًا لخدمات الأسلحة الجوية.
يجب إلزام الدول بإجراء تقييمات دورية للأثر الخوارزمي ( AIA ) في مراحل مختلفة من دورة حياة AWS. ويحقق هذا هدفين.
أولاً، يُمكّن هذا مُصنّعي الأنظمة الآلية من التفكير بعقلانية ومنهجية في الآثار المحتملة لهذه التقنية قبل تطبيقها. وهذا أمر بالغ الأهمية، لا سيما في التقنيات التي قد تنتهك حقوق الأفراد، ويضمن زيادة احتمالية أن يعكس المنتج النهائي المبادئ والقيم المحددة في تقييم الأثر الأولي.
ثانيًا، يضمن القانون توثيق جميع القرارات المتخذة في تطوير خدمات أمازون ويب (AWS) في مراحل مختلفة من دورة حياتها، مما يُحسّن الشفافية والمساءلة أمام الجمهور. ويمكن الاطلاع على مثال على تقييمات الأثر الخوارزمي في قانون المساءلة الخوارزمية الذي قدمه السيناتور رون وايدن أمام الكونجرس عام ٢٠٢٢. يسعى مشروع القانون إلى "توجيه لجنة التجارة الفيدرالية بطلب تقييمات أثر أنظمة اتخاذ القرار الآلية وعمليات اتخاذ القرار الحرجة المُعزّزة، ولأغراض أخرى". وفي مثال آخر، تفرض المادة ٣٥ من اللائحة العامة لحماية البيانات (GDPR) تقييمات أثر حماية البيانات "حيثما يُحتمل أن يُؤدي نوع من المعالجة [...] باستخدام تقنيات جديدة [...] إلى مخاطر كبيرة على حقوق وحريات الأشخاص الطبيعيين".
من التدابير الأخرى التي يمكن تطبيقها تشكيل لجنة استشارية ثنائية أو متعددة الأطراف تُجري عمليات تفتيش دورية على تقنية أنظمة الأسلحة الذكية (AWS) الخاصة بالدولة، لضمان امتثالها لقيود المعاهدات. وقد طُبقت هذه الخطوة في معاهدات تُقيّد حظر انتشار الأسلحة النووية. على سبيل المثال، معاهدة ستارت الجديدة هي اتفاقية لخفض الأسلحة النووية بين الولايات المتحدة وروسيا، وتسمح بإجراء 18 عملية تفتيش ميدانية سنويًا. وستضمن هيئة إشرافية على خوارزميات أنظمة الأسلحة الذكية (AWS) امتثال هذه التقنية لقواعد والتزامات المستوى الثاني المنصوص عليها في أي معاهدة أو اتفاقية تُبرم بين الدول بشأن تنظيم الذكاء الاصطناعي.
رابعًا: الخاتمة
تُقدم توصيات المستويين الأول والثاني حلاً عمليًا لحوكمة الذكاء الاصطناعي، حيث تُوازن بين فائدته وبين إنشاء إطار تنظيمي متين يُقيّد إساءة استخدام استقلاليته. ويُشكّل إطار الحوكمة المُقترح هيكلًا لقرارات السياسات المستقبلية المتعلقة بخدمات أمازون ويب (AWS) وغيرها من خدمات الذكاء الاصطناعي العالمية (GDAI). ولتحقيق ذلك، يجب على المجتمع الدولي دراسة هذه التطورات بهدف صياغة سياسة محلية ودولية أوسع نطاقًا بشأن الذكاء الاصطناعي وتقاطعه مع حقوق الإنسان.
*فيليب ألكسندر طالب قانون في جامعة غرب البنغال الوطنية للعلوم القانونية، الهند
-ترجمة غير رسمية
- https://journals.law.harvard.edu/ilj/2023/10/reconciling-automated-weapon-systems-with-algorithmic-accountability-an-international-proposal-for-ai-governance/
الاشتراك في:
تعليقات الرسالة (Atom)
ليست هناك تعليقات:
إرسال تعليق