الاثنين، 7 أبريل 2025

دفع الصخرة: إشراك شركات وسائل التواصل الاجتماعي في منع الفظائع

٢٠ ديسمبر ٢٠٢٤ | ملاحظة المحرر: هذه المقالة جزء من ندوة مكونة من أربعة أجزاء تبحث في عمل كيشانثي باريلا، "إنفاذ القانون الدولي ضد الشركات: نهج إدارة أصحاب المصلحة"، والذي ظهر في المجلد 65 (2) من مجلة HILJ المطبوعة . شانون راج سينغ يجب على أي نقاش ذي مصداقية حول مستقبل صناعة وسائل التواصل الاجتماعي أن يأخذ في الاعتبار تاريخها من الإخفاقات الصارخة. ومن أبرز تلك الحالات التي غذت فيها وسائل التواصل الاجتماعي أو ساهمت في ارتكاب فظائع جماعية في جميع أنحاء العالم. وهناك ثروة من الأمثلة على أطراف ألسنتنا: وثائق فيسبوك المسربة تكشف عن تحذيرات داخلية من أن الشركة لم تكن تبذل ما يكفي من الجهد لمنع تصاعد العنف العرقي في إثيوبيا، وهو التقاعس الذي أصبح الآن موضوعًا للتقاضي في المحاكم الكينية. وقد تعاملت طالبان ببراعة مع قواعد إدارة المحتوى على تويتر لنشر الدعاية وسط استيلائها على أفغانستان في عام 2021، في محاولة لإضافة غطاء من الشرعية إلى نظام وحشي وقمعي. وفي مخيمات اللاجئين المترامية الأطراف في كوكس بازار ببنغلاديش، لا يزال ما يقرب من مليون من الروهينجا نازحين بعد أن لعب خطاب الكراهية الجامح على وسائل التواصل الاجتماعي دورًا مهمًا في التحريض على العنف العرقي في ميانمار المجاورة. لكن وسط الأنقاض، يمكننا أن نجد أدلة على نجاحات مدهشة أيضًا - لحظات تصرفت فيها شركات وسائل التواصل الاجتماعي بتوافق واسع مع الأطر والمعايير القانونية الدولية بشأن منع الفظائع الجماعية والمعاقبة عليها. في حالات مختارة، وافقت المنصات على مشاركة البيانات التي يمكن استخدامها للتحقيق في الفظائع الجماعية وملاحقة مرتكبيها، أو تحركت بسرعة لتعديل منتجاتها أو سياساتها لمنعها من المساهمة في جرائم الفظائع. في سياق أفغانستان، على سبيل المثال، أطلق فيسبوك ميزة مبتكرة تهدف إلى حماية المدنيين: سمحت ميزة " الملف الشخصي المقفل " للمدنيين الأفغان بإغلاق إعدادات الخصوصية الخاصة بهم بسرعة لمنع استخدام المعلومات الموجودة في ملفاتهم الشخصية لاستهدافهم في وضع أمني سريع التطور. في خضم الغزو الروسي لأوكرانيا، أصدر تويتر سياسة لإدارة المحتوى تحظر تصوير أسرى الحرب، مشيرة على وجه التحديد إلى التوافق مع اتفاقيات جنيف . في عدة حالات، طورت المنصات غرف عمليات ومراكز عمليات للاستجابة للمخاطر الناشئة التي تشكلها منتجاتها في حالات الصراع والأزمات. وفي مراحل مختلفة خلال السنوات القليلة الماضية، أصدرت المنصات سياساتٍ لحقوق الإنسان ، ووظفت فرقًا معنية بحقوق الإنسان ، واستثمرت في تقييمات أثر حقوق الإنسان لمعالجة المخاطر المتعلقة بمنتجاتها وسياساتها وعملياتها. لا شك أن هذه المبادرات يمكن أن تُسهم في تعزيز سمعة المنصات، إذ تُواجَه بهجماتٍ شرسةٍ بسبب إخفاقاتها في بيئات الصراع. لكن وصفها بأنها مجرد حيلٍ دعائية قد يُخفي استثمار ووقت وجهد العاملين على توجيه المنصات نحو القانون الدولي في أوقات الخطر الفظيع. فما الذي يُفسر هذه النقاط المضيئة، وكيف يُمكننا استنساخها؟ تُسلّط مقالة كيشانثي باريلا ، "إنفاذ القانون الدولي ضد الشركات: نهج إدارة أصحاب المصلحة" ، الضوء على كيفية تطبيق القانون الدولي في القطاع الخاص "بطرق غير واضحة" (باريلا، ص 338). ويتجلى هذا بوضوح في عالم وسائل التواصل الاجتماعي، حيث تلعب المنصات التي يُطوّرها ويُشغّلها القطاع الخاص دورًا محوريًا في الحوار السياسي الحديث، والأخبار العاجلة، والنزاعات المسلحة، والمظاهرات، والثورات، والحركات الاجتماعية في جميع أنحاء العالم. تقدم مقالة باريلا تقييمًا شاملًا لكيفية تفاعل مختلف أصحاب المصلحة مع بعضهم البعض لإثراء سلوك الشركات والتأثير عليه. وترى باريلا أن أصحاب المصلحة في الشركات - من الدول إلى المستهلكين والمساهمين والموظفين والمنظمات المرجعية ومنظمات المجتمع المدني وغيرها - يستخدمون مجموعة من الاستراتيجيات ليكونوا بمثابة جهات إنفاذ حديثة للقانون الدولي في القطاع الخاص. ويكمن جوهر هذه الاستراتيجية في إدراك الأثر الكلي لتصرفات أصحاب المصلحة كشكل من أشكال إنفاذ القانون الدولي، وربط استراتيجياتهم الإنفاذية بتصنيف محدد، بما يتيح إنجاز هذا العمل بشكل أكثر حرصًا في المستقبل. مع أن إطار إدارة أصحاب المصلحة قد يبدو منطبقًا على مجموعة من القضايا التي يحكمها القانون الدولي، إلا أنه قد يُقدم وعدًا خاصًا في دفع شركات التواصل الاجتماعي إلى مواءمتها بشكل أفضل مع الأطر القانونية الدولية المتعلقة بالجرائم الفظيعة، وتحديدًا الإبادة الجماعية والجرائم ضد الإنسانية وجرائم الحرب. وبينما تواجه هذه الأطر القانونية تحديات إنفاذ واسعة النطاق في المحاكم، إلا أنها قد تستمد قوة خاصة في السياق المؤسسي، تحديدًا لارتباطها بأخطر الجرائم على وجه الأرض. في الواقع، إن قدرة الفظائع الجماعية على هز ضميرنا الجماعي قد تُعزز قدرة أصحاب المصلحة على تحويل انتهاكات الشركات للقانون الدولي إلى مخاطر تتعلق بالسمعة والاستراتيجية والعمليات، مما قد يُحفز العمل والتغيير. توجد أطر قانونية تتعلق بدور الجهات الفاعلة في الشركات في الفظائع الجماعية، ولكن من الصعب إنفاذها. في حين يمكن مقاضاة الأفراد (بما في ذلك المديرون التنفيذيون للشركات) في الأنظمة القانونية المحلية أو الدولية لارتكابهم جرائم الإبادة الجماعية وجرائم الحرب والجرائم ضد الإنسانية، فإن نظام روما الأساسي لا ينص على مقاضاة الأشخاص الاعتباريين أمام المحكمة الجنائية الدولية. وعلى الرغم من سلسلة الجهود القانونية التي سعت إلى محاسبة الشركات على دورها في الجرائم الفظيعة، فإن إنفاذ القانون هو بوضوح الاستثناء وليس القاعدة. في الواقع، فإن التأكيد على وجوب محاسبة شركات وسائل التواصل الاجتماعي على نشر المحتوى، الذي تنشره مجموعة من الجهات الفاعلة التي يمكن أن تسهم في مجموعها في الفظائع الجماعية، يمكن أن يشكل حجة قانونية صعبة. وعلى الرغم من أن القانون يفرض بالتأكيد مسؤوليات في هذا المجال، إلا أنه ليس من السهل إثبات الانتهاكات أو الأسباب. يجب علينا أيضًا التمييز بين الالتزامات بمنع الفظائع الجماعية والالتزامات التي تمنع الجهات الفاعلة من المساهمة في ارتكابها. على سبيل المثال، لا يُحظر على الدول ارتكاب الفظائع الجماعية فحسب، بل إنها ملزمة أيضًا بالمساعدة في منعها. تنبع التزامات الدول هذه بالمنع من مصادر قانونية متميزة: اتفاقية عام 1948 لمنع جريمة الإبادة الجماعية والمعاقبة عليها ، على سبيل المثال، تُلزم الدول بمعيار العناية الواجبة الذي يتطلب منها التصرف وفقًا لقدرتها على التأثير في موقف معرض لخطر الإبادة الجماعية، أينما حدث. تفرض المادة الأولى المشتركة لاتفاقيات جنيف التزامًا مماثلاً على جرائم الحرب، حيث تُلزم الأطراف السامية المتعاقدة بكل من "احترام وضمان احترام" الاتفاقيات - مما يعني أنه يجب على الدول ليس فقط الامتناع عن ارتكاب جرائم حرب بنفسها، ولكن أيضًا ملزمة باتخاذ تدابير في حدود سلطتها لمنع جرائم الحرب من قبل الدول الأخرى. لكن مما لا شك فيه أن هذه المعاهدات تُلزم الدول، لا شركات التواصل الاجتماعي. وبينما تُلزم المبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان - المُعترف بها على نطاق واسع كإطار عالمي مرجعي لالتزامات الشركات المتعلقة بحقوق الإنسان - الشركات بـ"تجنب التسبب في آثار سلبية على حقوق الإنسان أو المساهمة فيها من خلال أنشطتها، والسعي إلى منع أو تخفيف الآثار السلبية على حقوق الإنسان المرتبطة مباشرةً بعملياتها أو منتجاتها أو خدماتها"، فإن طبيعتها غير المُلزمة تُشكل عقبات كبيرة أمام التنفيذ المُتسق. في ظل هذه العقبات القانونية، وفي عصرٍ تمارس فيه شركات التواصل الاجتماعي نفوذًا مماثلًا - إن لم يكن أكبر - على مخاطر الفظائع الجماعية، كما تفعل العديد من الدول، كيف يُمكننا تشجيع المنصات على التصرّف بمسؤولية أكبر في بيئات خطر الفظائع؟ وما هو الوعد الذي يحمله نموذج إشراك أصحاب المصلحة لتشجيع شركات التواصل الاجتماعي على مراعاة المعايير المتعلقة بالفظائع الجماعية والتمسك بها؟ على الرغم من أن نموذج باريلا لإدارة أصحاب المصلحة يتوقع العديد من اللاعبين الأساسيين في سياق وسائل التواصل الاجتماعي (مثل المساهمين والموظفين ومنظمات المجتمع المدني والدول)، إلا أنه ربما يفشل في استيعاب الطبيعة الفريدة لمستخدمي وسائل التواصل الاجتماعي بشكل كافٍ. وكما ذكر خبير أخلاقيات التكنولوجيا تريستان هاريس بقوة، فإن مستخدمي وسائل التواصل الاجتماعي هم "المستهلكون" و"المنتجون" في آن واحد. يتم تجميع بيانات المستخدم وبيعها لتحقيق الربح من خلال نموذج أعمال قائم على الإعلانات المستهدفة، مما يجعل الأفراد مستهلكين لمنصات التواصل الاجتماعي وجزءًا مما يتم بيعه. بالإضافة إلى ذلك، وعلى عكس معظم الصناعات في القطاع الخاص، تتميز وسائل التواصل الاجتماعي لأن نطاق أصحاب المصلحة "المستهلكين" ذوي الصلة يشمل حرفيًا مليارات الأشخاص. وقد أقرت ميتا بهذا التحدي صراحةً، مشيرةً إلى أن "قاعدة أصحاب المصلحة لديها تشمل كل شخص أو منظمة قد تتأثر بسياساتها"، مع توضيحها أنها "لا تستطيع التفاعل بشكل هادف مع مليارات الأشخاص". لذا، بينما يُذكرنا إشراك أصحاب المصلحة في القطاعات الأخرى بالتواصل مع مجموعة من المجتمعات المحددة بوضوح، فإن وسائل التواصل الاجتماعي تختبر حدود ما تعنيه فئة "أصحاب المصلحة". ففي قطاع التعدين، على سبيل المثال، قد ترتكز إدارة أصحاب المصلحة على التفاعل مع المجتمعات المحلية المتأثرة بشكل مباشر بمصادر المعادن، والبائعين على طول سلسلة التوريد، ومجموعة من المستهلكين النهائيين. أما في عالم وسائل التواصل الاجتماعي، فإن كل فرد لديه حساب على وسائل التواصل الاجتماعي وكل فرد قد يتأثر بالتطورات على منصات التواصل الاجتماعي يُعدّ أصحاب مصلحة حقيقيين في هذه الصناعة. لقد أصبحت وسائل التواصل الاجتماعي محورية للعمليات الديمقراطية، وللسلام والاستقرار، وخطر الصراع المسلح، لدرجة أنه من الصعب تصور من لا يرغب في امتلاك القدرة على تشكيل تطورها وحوكمتها. من منا ليس صاحب مصلحة في الطريقة التي تُنظّم بها "ساحاتنا العامة" الحديثة المعلومات المزعومة وتُضخّمها وتراقبها وتُقدّمها؟ لكن كما يُقرّ باريلا، لا يتمتع جميع أصحاب المصلحة بنفس القوة. فالعدد الهائل لأصحاب المصلحة في وسائل التواصل الاجتماعي يُضعف قوة الأفراد، وهي حقيقة تُشير ضمنيًا إلى إمكانية تحالف أصحاب المصلحة لتغيير سلوك الشركات. لو نظّم هؤلاء المليارات من أصحاب المصلحة أنفسهم في كتل أو مجموعات فعّالة قادرة على توضيح المخاطر المتعلقة بمنع الفظائع، فتخيلوا القوة الإجمالية التي يُمكنهم ممارستها للتأثير على موارد المنصة وصنع القرار. إن كون نموذج إدارة أصحاب المصلحة يُوضّح هذا الأمر بهذه الوضوح أمرٌ قيّم في حد ذاته، ولكنه لا يُقدّم بالضرورة إجابة جاهزة على أساليب "إدارة" هذا العدد الهائل من أصحاب المصلحة. وفي قطاع وسائل التواصل الاجتماعي تحديدًا، يستحق هذا الأمر مزيدًا من الدراسة. في الوقت نفسه، يُمكن أن يكون نموذج إدارة أصحاب المصلحة مُنيرًا في إظهار مجموعة فرص الإنفاذ المتاحة للجهات الفاعلة في مجال وسائل التواصل الاجتماعي. ومن بين هذه الجهات الفاعلة - وهي جهة معنية فريدة ذات سابقة مباشرة قليلة - مجلس الرقابة. أنشأ ميتا مجلس الرقابة عام 2020، وهو مُكلف باتخاذ قرارات مبدئية ومستقلة بشأن حالات مُختارة حول كيفية تعامل فيسبوك وإنستغرام، والآن أيضًا مع Threads. على الرغم من أن ميتا أنشأت المجلس، إلا أنه مُمول من صندوق استئماني مستقل ( بتمويل من ميتا)، وبموجب ميثاقه ، يمارس أعضاؤه حكمًا مستقلاً على قرارات ميتا وعملياتها. في حين أن الشكوك حول قدرتها على دفع التغيير طويل الأجل كانت وفيرة، فإن الخبر السار هو أنه منذ البداية، يبدو أن مجلس الرقابة قد قبل أهمية القانون الدولي كجزء أساسي من ولايته. تشير قراراته بشأن الحالات المختارة للمراجعة بانتظام إلى القانون الدولي، بما في ذلك اتفاقيات جنيف والعهد الدولي الخاص بالحقوق المدنية والسياسية وفقه لجنة حقوق الإنسان والمبادئ التوجيهية للأمم المتحدة بشأن الأعمال التجارية وحقوق الإنسان . في عالم فشل فيه المجتمع القانوني الدولي إلى حد كبير في استخدام القانون بفعالية كعقوبة لسلوك شركات وسائل التواصل الاجتماعي في مناطق النزاع، فإن مجلس الرقابة "يعزز بنية المؤسسات الدولية التي تكتشف انتهاكات القانون الدولي وتعاقب عليها" (باريلا، ص 341). حتى الآن، انخرط مجلس الرقابة (بوعي أو بغير وعي) في مجموعة من الاستراتيجيات لإنفاذ القانون الدولي. يمكن اعتبار بعض أعماله إنفاذًا تنبؤيًا: سلوك لا يشرك شركة بشكل مباشر ولكنه يخلق الظروف لصاحب مصلحة آخر للقيام بذلك. في عام 2021، على سبيل المثال، أصدر المجلس قرارًا يوصي بأن "يوضح فيسبوك في سياسته المتعلقة بحقوق الإنسان في الشركة كيفية جمع المعلومات وحفظها ومشاركتها، عند الاقتضاء، للمساعدة في التحقيق والملاحقة القضائية المحتملة للانتهاكات الجسيمة للقانون الجنائي الدولي وقانون حقوق الإنسان والقانون الإنساني الدولي". يؤدي مجلس الرقابة وظيفة مماثلة إلى حد ما (وإن كانت أقل فعالية) لقوانين الإفصاح الإلزامية، ويمكن أن تدفع دعواته للشفافية شركة Meta إلى مشاركة المعلومات التي قد لا تكشف عنها بخلاف ذلك، مما يوفر أساسًا لأصحاب المصلحة الآخرين لإشراك المنصة بشكل مباشر في السياسات والممارسات التي تؤثر على منع الفظائع الجماعية والمعاقبة عليها. يمكن لمجلس الرقابة أيضًا اتخاذ إجراءات "تعزز تأثير الإجراءات التي يتخذها أصحاب المصلحة الآخرون" (باريلا، ص 329). يمكن لاستراتيجية "الإنفاذ الموسع" هذه (باريلا، ص 329) أن تلعب دورًا مهمًا في زيادة حجم المخاطر التي تواجهها ميتا، ولفت الانتباه إلى إجراءاتها في بيئات خطر الفظائع. من بين السبل الأخرى، يمكن تحقيق ذلك من خلال استخدام وظيفة "وضع جدول الأعمال" التابعة لمجلس الرقابة (باريلا، ص 330) للتأثير على المخاطر التي تواجهها المنصة بسبب سلوكها في بيئات خطر الفظائع. في ديسمبر 2023، على سبيل المثال، أعلن مجلس الرقابة أنه سيراجع حالة تتعلق بمحتوى يصور ما يبدو أنه عواقب غارة على ساحة خارج مستشفى الشفاء في مدينة غزة. يصور المحتوى - الذي أزالته ميتا - "أشخاصًا، بمن فيهم أطفال، مصابون أو قتلى، مستلقون على الأرض و/أو يبكون"، بينما يشير تعليق باللغتين العربية والإنجليزية إلى أن المستشفى كان مستهدفًا من قبل القوات الإسرائيلية. من اللافت للنظر أن ميتا تراجعت عن قرارها - بإعادة المنشور إلى المنصة - ليس بناءً على طلب المجلس، بل بمجرد علمها بنظر المجلس في القضية. في هذه الحالة، ومن خلال جدول أعماله وحده، أثّر مجلس الرقابة على إجراءات ميتا، مما دفعها إلى إعادة تقييم قرارها بإزالة محتوى يوثّق فظائع مزعومة. ويكتسب هذا القرار أهمية خاصة عندما يكون الهدف من المحتوى المحذوف هو رفع مستوى الوعي العام بخطر العنف الجماعي. وبقدر ما تلتقط وسائل الإعلام قرارات مجلس الرقابة، يمكن تعزيز دوره في إنفاذ القانون بشكل أكبر. ولكن ربما يكون الأكثر تأثيرًا هو أن قرارات مجلس الرقابة بشأن القضايا - التي تشبه قرارات المحاكم في بعض النواحي - يمكن اعتبارها إنفاذًا مباشرًا للقانون الدولي. ففي قرار بشأن المحتوى الرقمي الذي يهدد بالعنف في إثيوبيا، على سبيل المثال، وجد المجلس أن "ميتا تتحمل مسؤولية حقوق الإنسان لإنشاء نظام مبدئي وشفاف لإدارة المحتوى في مناطق النزاع للحد من خطر استخدام منصاتها للتحريض على العنف أو انتهاكات القانون الدولي. ويجب عليها بذل المزيد من الجهود للوفاء بهذه المسؤولية". وعلى الرغم من أن أصحاب المصلحة الآخرين قد يعتمدون على قرارات مجلس الرقابة، إلا أن هذه القرارات في حد ذاتها هي شكل من أشكال التفاعل المباشر مع ميتا. وغالبًا ما تتضمن توصيات تتجاوز بكثير معالجة كيفية استجابة المنصة لمحتوى فردي، وتدعو إلى تغيير منهجي في كيفية استجابة المنصة لمخاطر حقوق الإنسان في بيئات مماثلة. على سبيل المثال، في القرار الذي أصدرته هيئة الرقابة في إثيوبيا، دعت شركة فيسبوك إلى "نشر معلومات حول بروتوكول سياسة الأزمات"، و"تقييم جدوى إنشاء آلية داخلية مستدامة توفر لها الخبرة والقدرة والتنسيق اللازمين لمراجعة المحتوى والاستجابة له بشكل فعال طوال مدة الصراع". ليس من المهم فحسب أن الجهات المعنية، مثل مجلس الرقابة، تدعو شركات التواصل الاجتماعي إلى تغيير سياساتها وممارساتها في بيئات خطر الفظائع، بل إنها تستشهد أيضًا بالمسؤوليات القانونية الدولية للمنصات في هذه العملية. لا شك أن مجلس الرقابة يستحق الاعتراف به كآلية ناشئة لإنفاذ القانون الدولي، مستفيدًا من مجموعة من استراتيجيات الإنفاذ الموضحة في نموذج باريلا. عندما لا يُمثل القانون بحد ذاته عقوبة مقنعة، قد يتمكن أصحاب المصلحة في شركات التواصل الاجتماعي من تحقيق توافق فوري مع القانون الدولي. في الوقت نفسه، يجدر بنا أن نضع في اعتبارنا تحذير إيفلين دويك الثاقب من أن "عدم تحديد [القانون الدولي لحقوق الإنسان] يفسح المجال أمام المنصات لاستمالته، بدلاً من تقييدها به". وبالتأكيد، يمكن قول الشيء نفسه عن الأطر القانونية المتعلقة بالفظائع الجماعية. تظل الالتزامات الوقائية غير محددة إلى حد كبير حتى بالنسبة للجهات الفاعلة الحكومية، ولا تُسعى المساءلة عن التواطؤ في ارتكاب الفظائع الجماعية إلا لأصغر مجموعة فرعية من الجهات الفاعلة المسؤولة. لا نريد أن تتبنى منصات التواصل الاجتماعي "لغة" منع الفظائع ما لم تكن مصحوبة بسلوك هادف لمنع مخاطر الفظائع والتخفيف منها. يمكن أن تساعد مشاركة أصحاب المصلحة هنا أيضًا، ولكن سيتعين ضمان ربط المناصرة بتتبع ومراقبة مؤشرات التقدم القائمة على البيانات من قبل المنصات التي تعمل في بيئات مخاطر الفظائع. لعلّ أكبر فائدة لنموذج إشراك أصحاب المصلحة تكمن في إدراكه لدورنا الجماعي ومسؤوليتنا في تشكيل قطاعٍ يشتهر بغموضه. هناك الكثير مما يُقال عن الجهود النبيلة التي يبذلها متخصصو الثقة والسلامة الذين يعملون على تغيير شركات التواصل الاجتماعي من الداخل - فالنجاحات المذكورة أعلاه ما كانت لتتحقق لولا عملهم وخبرتهم. لكن يجب ألا ننسى أننا نجد أنفسنا اليوم في خضم " ركودٍ في حقوق الإنسان "، وهو اتجاهٌ يمتد إلى قطاع التكنولوجيا. ففي خضمّ التسريحات الجماعية للفرق التي تُركّز على حقوق الإنسان والثقة والسلامة ونزاهة الانتخابات، يُقدّم لنا إطار عمل باريلا خارطة طريقٍ ضرورية للمضيّ قدمًا. ستكون هناك دائمًا قوة في تحديد فرص مقاضاة ومعاقبة أولئك الذين يُساهمون في الجرائم الفظيعة - سواءً كانوا أشخاصًا طبيعيين أو اعتباريين. ولكن في غضون ذلك، يُساعدنا نموذج إشراك أصحاب المصلحة على تصوّر كيف يُمكن للجهات داخل شركات التواصل الاجتماعي وخارجها توجيه المنصات نحو سلوكٍ أكثر مسؤولية في بيئاتٍ تنطوي على مخاطر الفظائع، في اللحظات الأكثر أهمية - ترجمة غير رسمية -https://journals.law.harvard.edu/ilj/2024/12/pushing-the-boulder/

ليست هناك تعليقات: