ملخص

يوظف فيلسوف التكنولوجيا البلجيكي، مارك كويكلبيرج، مفاهيم الحداثة السياسية لاستكشاف المناقشات الرئيسية في ميدان التكنولوجيا الذكية، مبيِّنًا كيف تتأثر مختلف القضايا السياسية بتقنيات الذكاء الاصطناعي، وكاشفًا عن الطبيعة السياسية المتأصلة لهذه التكنولوجيا الحديثة. وربط الكاتب المفاهيم السياسية الكبرى بميدان الذكاء الاصطناعي، لفهم القضايا المعيارية التي أثارها هذا النوع من الذكاء وتسليط الضوء على القضايا السياسية المُلحة وطريقة ارتباطها باستعمالات هذه التقنيات الجديدة. فنظرًا للتشابك الوثيق للتكنولوجيا مع التحولات المجتمعية والبيئية والوجودية، لم تعد الفلسفة السياسية في القرن الحادي والعشرين تتجنب ما أسماه مارتن هايدجر “السؤال المتعلق بالتكنولوجيا”. ويستمد كتاب مارك كويكلبيرج أهميته من أنه دعوة إلى ضرورة التفكير في ما توفره التكنولوجيا الذكية للإنسان وإمكانية خروجها الكامل عن سيطرته، التي تبقى محل تجاذب بين المتحمسين للفكرة والمقللين من أهميتها. ورغم القيمة المعرفية التي يتميز بها الكتاب، إلا أن صاحبه يبدو وكأنه يحمِّل الذكاء الاصطناعي متاهات الإنسان المعاصر السياسية، وأن الأمور ستفلت من بين يديه ويتمكن الذكاء الاصطناعي من القضاء على ما أسسته الحداثة السياسية منذ عصر الأنوار.

كلمات مفتاحية: الذكاء الاصطناعي – الحرية – المساواة – العدل – الديمقراطية – السلطة

Abstract:

 In his book, The Political Philosophy of AI, Belgian technology philosopher Mark Coeckelbergh uses concepts of political modernity to explore key debates in the field of smart technology, showing how various political issues are affected by AI technologies and revealing the inherently political nature of this new technology. He ties major political concepts to the field of AI to explain the normative issues raised by this type of intelligence and shed light on pressing political issues and their relation to the uses of new technologies. Given the close intertwining of technology with societal, environmental and existential transformations, political philosophy in the 21st century no longer avoids what Martin Heidegger called “the question concerning technology”. Coeckelbergh’s book derives its importance from its call for to reflect on what smart technology offers humanity and the possibility of it escaping human control, a matter subject to debate between proponents and detractors of its importance. However, despite the cognitive value of the book, its author seems to hold AI responsible for the political mazes of contemporary humanity, and things potentially slipping from from its hands, allowing AI to eliminate what political modernity has established since the enlightenment era.

Keywords: AI, freedom, equality, justice, democracy, power

الفلسفة السياسية للذكاء الاصطناعي:

The Political Philosophy of AI: An Introduction

المؤلف: مارك كويكلبيرج (Mark Coeckelbergh)

دار النشر: Polity Press

تاريخ النشر: 11 أبريل/نيسان 2022

اللغة: الإنكليزية

الطبعة: الأولى

عدد الصفحات: 176

مقدمة

عرف الذكاء الاصطناعي تطورًا كبيرًا في السنوات الأخيرة، فواكبه صدور عديد من المؤلفات والأبحاث تناولت ما أحدثه ويحدثه من تحولات في جميع مناحي الحياة. وقد كان للعلوم الاجتماعية والإنسانية نصيب من هذه الأبحاث، تناولت الذكاء الاصطناعي من نواح متعددة، فلسفية وأخلاقية واجتماعية وسياسية(1). ومن أهم ما صدر مؤخرًا في هذا المجال كتاب فيلسوف التكنولوجيا البلجيكي، مارك كويكلبيرج(2) بعنوان: “الفلسفة السياسية للذكاء الاصطناعي”(3). وهو موجه على الخصوص إلى الطلاب والباحثين في فلسفة التكنولوجيا والفلسفة السياسية، وكذلك إلى رواد الابتكار التكنولوجي وصانعي السياسات، وكل المهتمين بتأثير التكنولوجيا الجديدة على مجتمعاتنا. ويوظف الكاتب المفاهيم الأساسية المتداولة في حقل الفلسفة السياسية لاستكشاف النقاشات الرئيسية الدارجة في ميدان الذكاء الاصطناعي، مبينًا كيف تتأثر مختلف القضايا السياسية (الحرية والديمقراطية والسلطة… إلخ) بتقنيات الذكاء الاصطناعي، ليكشف عن الطبيعة السياسية المتأصلة لهذه التكنولوجيا الحديثة.

يتكون الكتاب من خمسة فصول: يتناول الفصل الأول ما يسميه كويكلبيرج العبودية الآلية، وإمكانية التلاعب بالحرية بواسطة الذكاء الاصطناعي. وينظر الفصل الثاني في إمكانية استعمال الذكاء الاصطناعي في التحيز والتمييز. أما الفصل الثالث فهو عن تهديد الذكاء الاصطناعي للديمقراطية. بينما يشرح الفصل الرابع كيف يجعل الذكاء الاصطناعي المجتمع موضوعًا للتأديب والمراقبة. ويتساءل الفصل الخامس عن الوضع السياسي لغير البشر وخاصة “مخلوقات” الذكاء الاصطناعي. ويختم كويكلبيرج كتابه بالأسئلة المتعلقة بالسياسات التكنولوجية العامة. أما المقدمة فقد جاءت على شكل شرح تفصيلي للأساس المنطقي للكتاب وأهدافه ومنهجه.

يأتي هذا الكتاب ليسُد فجوة أكاديمية عميقة في ما يخص الفلسفة السياسية، التي أغفلت لوقت طويل، الذكاء الاصطناعي، إلا ما ندر(4). وفضلًا عن مسعى سد هذه الفجوة العلمية، يبقى الأساس المنطقي للكتاب هو خلق حوار بين الفكر السياسي والتفكير في التكنولوجيا، بالعودة إلى نظريات الفلسفة السياسية في ماضيها وحاضرها؛ قصد معالجة القضايا الخلافية التي تحتل مركز الاهتمام السياسي الحالي وربطها بأسئلة آنية تتعلق بالذكاء الاصطناعي والروبوتات. ولم يفت الكاتب إظهار كيف أن عمله هذا ليس مجرد تمرين في الفلسفة السياسية التطبيقية، بل يخوض أيضًا في “رؤى مثيرة للاهتمام عن البعد السياسي المخفي، والأعمق في كثير من الأحيان، لهذه التقنيات المعاصرة”(5)، ما دامت تقنيات الذكاء الاصطناعي والروبوتات لها تأثيرات سياسية مقصودة وغير مقصودة، والتي يمكن مناقشتها بشكل مفيد باستعمال الإطار المفاهيمي للفلسفة السياسية. وهنا يكمن تفرد الكتاب الذي بين أيدينا، من حيث اعتباره مساهمة أصيلة في حقلين قد يبدوان للوهلة الأولى متباعدين، وهما: فلسفة التكنولوجيا والفلسفة السياسية التطبيقية، ولكن استعمالات الذكاء الاصطناعي في عدة ميادين أثبتت أن الفلسفتين تشتركان في العديد من النقاط، وتثيران إشكالات عدة، وجب التفكير فيها، كما جرت العادة في تاريخ الفكر الإنساني عمومًا.

إن السؤال الأساس الذي يوجه هذه القراءة في كتاب كويكلبيرج هو: إلى أي حدٍّ يمكن القول: إنه نجح في مساعيه؟ هذا ما ستحاول الإجابة عنه، وذلك لتوضيح محاولة الكاتب ربط المفاهيم السياسية الكبرى بميدان الذكاء الاصطناعي من جهة، وللوقوف، من جهة أخرى، على ما أغفله بناء على الأهداف التي سطرها في مقدمة الكتاب(6)، وهي فهم أفضل للقضايا المعيارية التي أثارها الذكاء الاصطناعي والروبوتات وتسليط الضوء على القضايا السياسية الملحة وطريقة تشابكها مع استعمالات هذه التقنيات الجديدة.

  • الذكاء الاصطناعي وخنق حريات الإنسان المعاصر

تساءل الكاتب في الفصل عن أهم مبدأ سياسي وهو الحرية. فماذا يعني هذا المفهوم في الوقت الحالي، عندما أصبح الذكاء الاصطناعي يمنح طرقًا جديدة لاتخاذ القرار، بل والتلاعب به والتأثير فيه؟ وما مدى هذه الحرية عندما يسهم الفرد بنفسه في العمل الرقمي لصالح الشركات الكبيرة القوية؟ وهل استبدال الروبوتات بالعمال سيؤدي إلى استمرار العبودية فكرًا وممارسة؟

تم تنظيم الفصل وفقًا لتعاريف مختلفة للحرية، مناقشًا الاحتمالات التي توفرها الخوارزميات(7) في صنع القرار وتأثيرها السلبي على الحرية بمفاهيمها الأساسية كما طورها فلاسفة السياسة عبر التاريخ، مثل الحرية السلبية والحرية باعتبارها استقلالية والحرية باعتبارها تحقيقًا للذات والتحرر، والحرية باعتبارها مشاركة سياسية، وحرية التعبير.

بخصوص الحرية السلبية، يعود كويكلبيرج إلى تعريف إشعيا برلين (Isaiah Berlin) بمعناها التحرر من أي تدخل خارجي(8). وهذه الحرية السلبية، حسب كويكلبيرج، تصبح على المحك عندما تستخدم تقنية الذكاء الاصطناعي للمراقبة الدائمة بالكاميرات والروبوتات. ويُشبِّه الكاتب هذا النوع من المراقبة غير المرئية في العصر الحالي بسجن البانوبتيكون (Panopticon) الذي صَمَّمه الفيلسوف الإنكليزي، جيريمي بنثام (Jeremy Bentham)، عام 1785(9)؛ مما سيقضي على هذه الحرية السلبية حتى في المجال الخاص بسبب وسائل التواصل الاجتماعي، المعتمدة بالأساس على الذكاء الاصطناعي حيث يراقب الناس بعضهم بعضًا، وهو ما يسميه الكاتب بالمراقبة الأفقية، التي تظهر عبر شبكات التواصل الاجتماعي، وقد تصل المراقبة إلى حد التهديد بين مستعملي هذه الشبكات. في المقابل، توجد المراقبة العمودية من طرف الدولة والشركات الحاضنة لشبكات التواصل الاجتماعي(10)، والتي تمتلك معلومات هائلة عن كل مستعملي هذه الشبكات مما يُسهِّل عملية المراقبة من طرف أجهزة الدولة المعنية، أو من طرف الشركات المهتمة باستهداف زبائن أكثر.

أما فيما يخص الحرية باعتبارها استقلالية، التي تتقاطع مع الحرية الإيجابية، أو القدرة على فعل شيء ما، كما عرَّفها برلين، فإنها أيضًا مهددة من طرف الذكاء الاصطناعي. ويستعين كويكلبيرج هنا بمفهوم الوكزة nudging))، المستعمل في العلوم السلوكية والذي يهدف إلى تشجيع الأفراد والجماعات على تغيير سلوكهم أو اتخاذ قرارات معينة دون تهديدهم أو إكراههم على ذلك. ومفهوم الوكزة بواسطة الذكاء الاصطناعي، في نظر كويكلبيرج، هو تهديد لهذه الحرية الإيجابية(11)، وذلك من خلال التلاعب بالعقل الباطن للناس دون احترامهم وعدهم كائنات عقلانية قادرة على تحديد وتحقيق أهدافها الخاصة.

في موضوع الحرية باعتبارها تحررًا وتحقيقًا للذات، يوظف الكاتب انتقادات كارل ماركس ( (Karl Marxللرأسمالية بوصفها مذهبًا مُستغلًّا للعمال ومُستلبًا لإنسانيتهم، بحيث يصبحون أنفسهم سِلعًا وخَدمًا للأشياء التي ينتجونها. وبدلًا من الرقي بأنفسهم، فإنهم يهلكون أجسادهم ويدمرون عقولهم في العمل الذي يصبح قسريًّا ونافيًا للحرية. في ظل هذه الظروف، فإن التكنولوجيا لا تقود إلى الحرية بل تصبح أداة لهذا الاغتراب(12). ولربط كل هذا بالذكاء الاصطناعي، فإن كويكلبيرج يؤكد أن مستخدمي وسائل التواصل الاجتماعي والتطبيقات الأخرى يعدون عمالًا منتجين للبيانات (وهي هنا بمنزلة سلع في النظرية الماركسية) التي يحتاجها الذكاء الاصطناعي والقائمون عليه. والأدهى من ذلك هو أن هذا العمل يكون بدون أجر لصالح شركات التواصل الاجتماعي وعملائها (الشركات المُعلِنة). الشيء الذي يعده الكاتب من منظور ماركسي شكلًا من أشكال الاستغلال الرأسمالي، لمستخدمي التطبيقات التكنولوجية المتطورة التي تجبرهم على العمل باستمرار وعلى الاستهلاك أيضًا، بما في ذلك استخدامهم للأجهزة الإلكترونية لإنتاج البيانات-السلع، التي تصبح في حوزة شركات التواصل الاجتماعي التي تبيعها لمن يهمه الأمر. وهذه العلاقة بين رب العمل (الشركات المستفيدة من الذكاء الاصطناعي) والعامل (مُستخدِم التطبيقات الذكية)، لا تؤدي إلى تطوير وتحقيق ذات هذا المُستخدِم، بل إلى فقدان حريته تمامًا. وبناء عليه، فإن مُستخدِم التطبيقات الذكية في هذه الحالة مجرد “مجموعة من البيانات”(13). بمعنى آخر يصبح هذا العامل-المستهلك هو نفسه سلعة(14).

وعن الحرية باعتبارها مشاركة سياسية أو مشاركة في صنع القرار السياسي والتي نجد صداها عند الإغريق خصوصًا الأثينيين في القرن الخامس قبل الميلاد، وعند جان جاك روسو (Jean-Jacques Rousseau) في صيغتها الحديثة عبر فكرة الإرادة العامة، يؤكد كويكلبيرج أن ميدان الذكاء الاصطناعي يبقى بعيدًا عن أي مشاركة للمواطن؛ لأن الذكاء الاصطناعي ميدان محصور بين أيدي متخصصين سياسيين، ومستثمرين ومطوري التكنولوجيا الذكية…إلخ. ويستنتج الكاتب أن التأثير الضئيل أو المعدوم للمواطنين على استخدام التكنولوجيا ومستقبلها يجعلهم فعليًّا في حالة من الاستبداد وانعدام الحرية(15). وحتى المشاركين في العملية السياسية، يتم التلاعب بهم عن طريق الذكاء الاصطناعي، الذي أصبح دوره متزايدًا في الحملات الانتخابية وفي الحياة السياسية بشكل عام، حيث يُستهدَف الناخبون بالإعلانات عن طريق استخدام بيانات عن سلوكهم على وسائل التواصل الاجتماعي وأنماط استهلاكهم وعلاقاتهم، للتأثير على اختياراتهم في التصويت الانتخابي. الشيء الذي يرى فيه كويكلبيرج تقويضًا للحرية كذلك.

في الاتجاه نفسه، يؤكد الكاتب أن القيود المفروضة على حرية التعبير يفرضها الذكاء الاصطناعي، بما يسمى “الإشراف على المحتوى content moderation”، لكشف ومنع المحتويات التي من المحتمل أن تكون ذات طابع إشكالي للمنصة الرقمية ومن يقف وراءها. وهذا يصيب في مقتل حرية التعبير التي عدَّها فلاسفة الأنوار ضرورية لإجلاء الحقيقة من خلال النقاش(16). فالفيلسوف البريطاني، جون ستيوارت ميل (John Stuart Mill)، مثلًا، يجعل من الاحترام الكامل للحرية في أوسع معانيها، أساسًا لإنشاء مجتمعٍ حر(17). فمن خلال الرؤية التي تجمع بين الحرية والمجتمع، يدعو ميل إلى عدم سلب الحرية حتى ممن ينكرونها ويمنعونها عن الآخرين، ويدعو هؤلاء إلى التعبير عن أنفسهم ليكون ذلك مفيدًا لتدارك الخلافات الممكنة بشأن العيش المشترك بسلام في مجتمع واحد.

  • المساواة والعدالة في المجتمع المعاصر وتمييز الذكاء الاصطناعي

يتساءل الفصل الثاني عن الآثار السياسية (غير المقصودة عادةً) للذكاء الاصطناعي والروبوتات على المساواة والعدالة، وهل تزيد الأتمتة (التشغيل الآلي) والرقمنة (التحويل إلى صياغة رقمية) التي تتيحها الروبوتات من انعدام المساواة في المجتمع؟ وهل يؤدي اتخاذ الذكاء الاصطناعي قرارًا آليًّا إلى التمييز الجنسي والعنصرية؟ ولماذا؟ وقبل ذلك يتساءل الكاتب عن معنى العدل والإنصاف المستخدم في مثل هذه النقاشات؟

للإجابة عن هذه التساؤلات يضع هذا الفصل التشغيل الآلي والتمييز عن طريق الذكاء الاصطناعي والروبوتات في سياق المناقشات السياسية الفلسفية الكلاسيكية عن المساواة والعدالة باعتبارها إنصافًا في التقليد الفلسفي الليبرالي، وأيضًا في سياقات العديد من النظريات والأيديولوجيات مثل الماركسية والفكر المناهض للعنصرية والاستعمار. كما يثير أسئلة تتعلق بالتوتر بين مفاهيم العدالة العالمية في مقابل العدالة القائمة على الهوية الجماعية والتمييز الإيجابي، منتهيًا بتأكيد الأطروحة القائلة: إن خوارزميات الذكاء الاصطناعي ليست محايدة سياسيًّا. فكيف ذلك؟

ينطلق كويكلبيرج من الفكرة الراسخة -لحد الآن على الأقل(18)- من أن الذكاء الاصطناعي يلجأ إلى الحياد في أقصى الحدود نظرًا لاعتماده خوارزميات تقوم على معادلات رياضية بحتة. على هذا الأساس يضرب كويكلبيرج مثلًا استخدام الذكاء الاصطناعي في اختيار المتقدمين للوظائف(19). فمن المفروض أن يوجد معياران لاختيار الناجحين، وهما التعليم والخبرة العملية ذَوا الصلة بالوظيفة. وحسب خوارزمية الذكاء الاصطناعي لفرز المتبارين، تكون النتيجة لصالح المتقدمين الحاصلين على درجات أعلى. من المؤكد أن هذا الاختيار هو في غاية الدقة والحيادية، وسيكون في صالح الشركة أو المؤسسة. لكن إذا وجهنا نظرنا إلى جهة الفلسفة السياسية الليبرالية، خصوصًا من منظور راولزي، نسبة إلى فيلسوف السياسة الأميركي، جون راولز (John Rawls)، الذي يعود إليه الكاتب في هذا الفصل، فإن الخوارزمية ستميز المتبارين الذين تلقوا تعليمًا جيدًا (أو من جامعات ومعاهد مرموقة) وخبرة عملية أكبر، عن الأشخاص الذين تلقوا تعليمًا أضعف (أو من جامعات ومعاهد مغمورة) وخبرة عملية أقل. لأن الحديث عن المساواة في الفلسفة السياسية الليبرالية، يكون بالأخذ بعين الاعتبار الفكرة الراولزية: العدالة باعتبارها إنصافًا “Justice as Fairness”. وهذه الفكرة كان راولز قد بدأ بالتأسيس لها في بداية السبعينات من خلال مبدأين للعدالة: الأول هو مبدأ الحرية؛ حيث “يجب أن يكون لكل شخص حق معادل للنظام الأكثر امتدادًا للحريات الأساسية التي يتساوى فيها الجميع، ويكون متوافقًا مع النظام نفسه عند الآخرين”. والمبدأ الثاني هو مبدأ الفرق الذي ينص على أن “أشكال التفاوت الاجتماعي والاقتصادي يجب أن تكون منظمة تنظيمًا يكون في آن واحدٍ لصالح كل فرد، ومرتبطًا بمواقع ووظائف مفتوحة للجميع”(20). وبناء عليه، فإن المساواة الحقيقية في الفرص تعني خلق الظروف للأشخاص الأقل حظًّا للحصول على التعليم المطلوب والخبرة العملية(21)، وذلك لتوفير فرص متساوية مع الذين حالفهم الحظ للحصول على تعليم راق، بسبب ظروفهم الاجتماعية أو الاقتصادية المريحة.

لكن ما دام الأمر يتعلق بالذكاء الاصطناعي، فإن كويكلبيرج يقترح تغيير خوارزمية انتقاء المتبارين بطريقة تؤدي إلى تحسين موقف من هُم أسوأ حالًا. وهو تمييز إيجابي(22) من شأنه أن يُغير الوضع الفعلي وفقًا لمبدأ الفرق الراولزي، يسميه “التمييز الإيجابي حسب التصميم”، باعتباره شكلًا محددًا من أشكال “الإنصاف حسب التصميم”(23). لكن الكاتب يظل متشائمًا بشأن أي تغيير إيجابي في صالح المواطنين الأقل حظًّا، لأن المنطق الرأسمالي السائد يحتم على الشركات المتنافسة البحث عن -أو اصطياد – موظفين ذوي الخبرات العالية؛ لأنها لا تهتم بالحد من أشكال التمييز أو إرساء هذا النوع من العدالة إلا إذا كان ذلك يتماشى مع مصالحها.

وبناء على التقسيم الماركسي للمجتمع إلى طبقة رأسمالية (تملك وسائل الإنتاج، بما فيها الذكاء الاصطناعي) وطبقة عاملة (البروليتاريا)، يشير كويكلبيرج إلى أنه في إطار ما يسميه “رأسمالية الذكاء الاصطناعي”، يُستخدَم هذا الأخير وسيلة لاستغلال الطبقة العاملة. وحتى الروبوتات تُستخدَم لتَحُل مَحَل العمال، مما يسهم في خلق طبقة من العاطلين عن العمل؛ الشيء الذي يُسَهِّل استغلال الذين لا تزال لديهم وظائف(24)، ببقائهم تحت تهديد قِلة الوظائف من جهة، وحدة التنافس عليها من جهة أخرى. وكل هذا يضفي على المجتمعات الحديثة حالة من انعدام الأمن الاقتصادي والاجتماعي، من المنتظر أن تصيب حتى الذين يتوفرون على مهارات جيدة وأجور كبيرة(25)؛ فهؤلاء يعيشون حالة استنفار داخلي دائم نظرًا لضرورة التفوق المطلوب منهم بصفة مستمرة، للمحافظة على وظائفهم.

وفي ختام هذا الفصل، يؤكد كويكلبيرج عدم حيادية الذكاء الاصطناعي ما دام البشر يتدخلون في خوارزمياتها بتحيزاتهم. ويدعو المواطنين في المجتمعات الديمقراطية، بمساعدة خبراء الذكاء الاصطناعي، إلى الانخراط في المساعدة على تحليل وفهم تحيز الذكاء الاصطناعي ومن ثم تصحيحه في اتجاه تمييز إيجابي خدمة للعدالة بمفهومها الراولزي.

  • تهديد الذكاء الاصطناعي لآليات الديمقراطية المعاصرة

يناقش كويكلبيرج في الفصل الثالث تأثيرات الذكاء الاصطناعي على الديمقراطية، إذ بالإمكان استعماله للتلاعب بالناخبين والانتخابات. كما يتساءل عن المراقبة بواسطة الذكاء الاصطناعي وقدرتها على تدمير الديمقراطية خدمة للرأسمالية. ويضع هذا الفصل النقاش في سياق نظرية الديمقراطية. ويُظهر سهولة الوقوف على تهديد الذكاء الاصطناعي للديمقراطية. ففي علاقتها بالمعرفة، يرى الكاتب أن الذكاء الاصطناعي يقف بقوة إلى جانب التكنوقراطية(26)، لأنه يقدم إمكانيات جديدة لإنتاج المعرفة عن الواقع الاجتماعي. ويرى كويكلبيرج أن الذكاء الاصطناعي قادر على بناء الواقع الاجتماعي؛ لأنه مع توسع إمكانيات التحليل التنبئي، بإمكان الذكاء الاصطناعي خلق قوة جديدة للتوجيه التكنوقراطي للمجتمع(27). وهو ما يتناقض مع المُثُل الديمقراطية، أو على الأقل يسهم في فك الارتباط بين إرادة الأغلبية والديمقراطية في شكلها المعاصر حيث المواطن مطالب بالمشاركة في إدارة الشأن العام، ما دامت المعرفة المكتسبة بمساعدة الذكاء الاصطناعي تفتح الباب أمام إمكانية مشاركة الخبراء التكنوقراطيين بطريقة ما في العملية الديمقراطية، وطالما أنه بالإمكان توجيه المواطنين في اختياراتهم السياسية باستعمال الذكاء الاصطناعي.

في الواقع، إن تقزيم الديمقراطية أو إجهاضها من خلال آليات الديمقراطية نفسها والتي بإمكان الذكاء الاصطناعي ومن يقف وراءه التحكم فيها، تُذكِّرُنا بما أشار إليه جيمس ماديسون (James Madison) في المقال العاشر من كتاب “الفيديراليست”(28)؛ إذ نَبَّهَ الرئيس الرابع للولايات المتحدة إلى أن الديمقراطية قد تتحول إلى ديكتاتورية نخبة صغيرة جاءت إلى الحكم بتصويت من الأغلبية، ساحقة بذلك الأقليات الأخرى. في الاتجاه نفسه، يمكن القول: إن تلاعب أقلية تكنوقراطية بالأغلبية بمساعدة الذكاء الاصطناعي، بإمكانه سحق المكونات الأخرى للمجتمع، بل وحتى تلك الأغلبية نفسها؛ لأن اختياراتها كانت بتوجيه من الشركات المتحكمة في خوارزميات منصات التواصل الاجتماعي المعروضة على الشبكة خصيصًا لغرض التوجيه السياسي. وهكذا يربط الكاتب هذا النقاش بقضايا مثل فقاعات المعلومات وغرف الصدى المدعومة بالذكاء الاصطناعي. وإذا كانت هذه أساليب معروفة في حقل الإعلام وتم تحليلها في الدراسات الإعلامية، فإن الجمع بين وسائل التواصل الاجتماعي والذكاء الاصطناعي قد أدى إلى تفاقم هذه الاتجاهات(29).

من جهة أخرى، وبالمنطق نفسه، يستخدم السياسيون الشعبويون الذكاء الاصطناعي لتحليل البيانات عن تفضيلات الناخبين. ولكن إذا كان هذا مطلوبًا في حدِّ ذاته في العملية السياسية، فإن استخدام الذكاء الاصطناعي بهذا الشكل قد يتحول إلى نداءات جماعية ديماغوجية. وهكذا بإمكان الذكاء الاصطناعي، من خلال وسائل التواصل الاجتماعي، أن يسهم في صعود الشعبوية، وفي نهاية المطاف قد يؤدي إلى الاستبداد، بإعداد زعيم سلطوي يدعي تجسيد إرادة الشعب وتصبح هواجسه الشخصية هي هواجس الأمة بأكملها(30).

ويقف كويكلبيرج على ما يراه دورًا أكبر وأخطر لتقنيات الذكاء الاصطناعي. فهي لا تساعد الحكام المستبدين ومؤيديهم على تزوير الانتخابات ونشر المعلومات المضللة والسيطرة على المعارضة وقمعها فحسب؛ وإنما تساعدهم أيضًا على “المراقبة الكاملة والسيطرة التامة”(31). وعلى صعيد آخر، يؤكد كويكلبيرج أن مشكلة الاستبداد من خلال التكنولوجيا تشير إلى مشاكل عميقة وطويلة الأمد في المجتمع المعاصر؛ إذ “يمكن للآلات أن تسهم في الشعور بالوحدة؛ لأنها لا تمنح سوى وهم الرفقة”(32)، رغم وفرة العلاقات والصداقات الافتراضية؛ مما يؤدي إلى فقدان الثقة وغياب التضامن بشكل عام. وهذا وفقًا للكاتب مشكلة سياسية خطرة “تساعد على خلق أرضية للاستبداد”(33). كما أن هذه الوحدة تخلق نوعًا من التقوقع، يسميه كويكلبيرج “القبلية”، خصوصًا في ما يخص استقاء المعلومات؛ إذ يتعرض الفرد لقصف مستمر من الأخبار، يدفعه إلى الوثوق فحسب بالمعلومات الواردة من الجهة التي يواليها أو يثق بها، أو “قبيلته” بتعبير أراش جافانبخت (Arash Javanbakht)(34).

وينتهي الفصل بالإشارة إلى خطر ما أسمته حنة آرندت (Hannah Arendt) “تفاهة الشر banality of evil The”(35)، عندما يُستخدم الذكاء الاصطناعي أداة للتلاعب في الشركات والإدارة البيروقراطية للمواطنين؛ لأن كل استعمالات الذكاء الصناعي التي جرت الإشارة إليها تؤدي إلى تدجين الأفراد، المنتظر منهم طاعة الأوامر وعدم المقاومة(36). وهذا يؤدي بهم إلى تأدية “واجبهم” في الممارسات التكنولوجية اليومية دون تفكير في أخلاقياتها، وبالنتيجة تصبح حتى الأفعال الشريرة أمرًا عاديًّا، مثل استعمال الطائرات بدون طيار لتدمير قرى بأكملها في بلد آخر دون الإحساس بأدنى ذنب(37). وتنتشر فيديوهات التدمير بهذا النوع من الطائرات على القنوات التليفزيونية ومواقع التواصل الاجتماعي دون استفزاز كبير للمشاعر.

  • الذكاء الاصطناعي أداة السلطة للتأديب والانضباط

يناقش الفصل الرابع العلاقة بين الذكاء الاصطناعي والسلطة، محاولًا الإجابة عن السؤال الآتي: كيف يمكن استخدام الذكاء الاصطناعي للتأديب والانضباط الذاتي؟ وكيف يؤثر على المعرفة وتشكل علاقات السلطة الحالية، بين البشر والآلات من جهة، وأيضًا بين البشر بعضهم البعض؟

يعود كويكلبيرج إلى كتاب فريدون ساتاروف (Faridun Sattarov) “السلطة والتكنولوجيا”(38)، والذي يميز بين المفاهيم المختلفة للسلطة ويطبقها على التكنولوجيا على العموم ليقوم هو بدوره بتطبيقها على آليات الذكاء الاصطناعي(39). وهكذا يخلُص كويكلبيرج إلى إمكانية الذكاء الاصطناعي إغواء الأفراد أو التلاعب بهم، دون استخدام أسلوب الإكراه؛ إذ بإمكان الذكاء الاصطناعي أن يكون “تكنولوجيا مُقْنِعة” عن طريق إغواء الناس والتلاعب بهم. من جهة أخرى إذا كان هذا الذكاء يساعد على زيادة القدرات الفردية للأشخاص، وبالنتيجة فتح إمكانيات جديدة لهم، فإنه يزيد أيضًا من إمكانية ممارسة السلطة على الآخرين وعلى البيئة المحيطة. كما أنه، بإمكانه دعم الرأسمالية في نسختها النيوليبرالية وكذلك الاستبداد والأنظمة والأيديولوجيات الأخرى؛ لأن أنظمة البرمجيات والأجهزة المتعلقة بالذكاء الاصطناعي تُشكل جزءًا من واقع مؤسسي اجتماعي واقتصادي وسياسي أوسع. وهذا الواقع الذي يشمل النظم والأيديولوجيات الاجتماعية، هو الذي يؤثر على تطوير التكنولوجيا، من خلال إنشاء سياق للاستثمار في الذكاء الاصطناعي، على سبيل المثال. وفي المقابل تساعد التكنولوجيا كذلك في الحفاظ على هذه الأنظمة. وأخيرًا في السياق نفسه، بإمكان الذكاء الاصطناعي أن يلعب دورًا في تكوين الذات وتشكيلها، والمساهمة في تشكيل كيفية فهم وتجربة الأشخاص إلى درجة أنه يساعد في استنتاج أفكارهم ومشاعرهم، والتي تُستغل بعد ذلك للتنبؤ بمآلاتهم، قصد تحقيق الدخل من خلال ما يسميه كويكلبيرج بـ”رأسمالية المراقبة”(40).

يطور الفصل إطارًا مفاهيميًّا يمكن من خلاله التفكير في العلاقات بين السلطة والذكاء الاصطناعي، ثم يعتمد على بعض نظريات السلطة من أجل توضيح هذه العلاقات. فمن وجهة نظر ماركسية، يدعم الذكاء الاصطناعي الرأسمالية وطبقة اجتماعية معينة فحسب. فبواسطته، يتحكم الرأسماليون في التكنولوجيا الذكية مُكونين طبقة “رأسمالية تقنية” تحاول في “سعيها للسلطة والربح”، التحكم في جميع جوانب المجال العام، والخاص كذلك(41).

ويستعير الكاتب من النظرية النقدية عن الذكاء الاصطناعي والسلطة، مصطلح “استعمار البيانات” الذي يُستخدم للتعبير عن استغلال الحياة البشرية عبر الذكاء الاصطناعي، وهو أمر غير مقبول من منظور نقدي، التي توضح أيضًا فهم عملية الاستحواذ على البيانات وتوظيفها من خلال فهمها لتاريخ الاستعمار(42). فكما استولى الاستعمار التقليدي على الأراضي والموارد من أجل الربح، يستغل “استعمار البيانات”، في الوقت الحالي، البشرَ من خلال الاستحواذ على البيانات وتوظيفها.

كما وظف الكاتب مفهوم السلطة عند الفيلسوف الفرنسي، ميشيل فوكو Michel Foucault))، الذي يسلط الضوء على الآليات الدقيقة للسلطة على مستوى المؤسسات والعلاقات الإنسانية والأفراد. فيؤكد فوكو أن السلطة تأتي في شكل تأديب ومراقبة، وأنه في ظل السلطة التأديبية المعاصرة، يعامل الأفراد معاملة الأشياء، لجعل الفرد مطيعًا ومفيدًا(43). واستنادًا إلى هذا الطرح الفوكوي، يؤكد كويكلبيرج عودة أشكال التحكم التي درسها فوكو في الماضي، مستعينة بالذكاء الاصطناعي وعلوم البيانات في الوقت الحاضر. ويضرب الكاتب لذلك مثلًا مكافحة وباء كوفيد-19؛ لما استخدمت مراقبة الشرطة والتدابير التأديبية التقليدية مثل العزل والحجر الصحي، ولكن بتمكينها وتعزيزها بواسطة تكنولوجيا الذكاء الاصطناعي الذي يسهِّل تتبع مواقع الأفراد وكذلك الاتصال بينهم، والتنبؤ بانتشار الفيروس بناءً على البيانات المتاحة، وتتبع ومراقبة المرضى الخاضعين للحجر المنزلي عبر الهواتف والأساور الذكية(44).

ثم يعود كويكلبيرج كذلك إلى النهج الموجه نحو الأداء، الذي مكنه من الوقوف على هوية المتحكمين والمتحكم فيهم في الأداء التكنولوجي. وهكذا لا يرى كويكلبيرج في الذكاء الاصطناعي مجرد أداة يستخدمها البشر لممارسة السلطة، ولكن له تأثيرات غير مقصودة كذلك. ويصف أحد هذه التأثيرات على النحو الآتي: “بقدر ما يُمنح الذكاء الاصطناعي مزيدًا من الفاعلية، على سبيل المثال في القيادة الذاتية للسيارات والروبوتات والخوارزميات التي تعمل على الإنترنت، وأيضًا عندما يصبح التأثير غير المقصود للذكاء الاصطناعي أكثر انتشارًا، يصبح مُصمِّمًا ومُديرًا لحركاتنا وخطاباتنا وعواطفنا وحياتنا الاجتماعية”(45).

وهكذا مكَّنت هذه النظريات الكاتب من إلقاء الضوء على إغراءات وتلاعبات الذكاء الاصطناعي والاستغلال الذي ينتجه في سياقه الرأسمالي، وتاريخ علم البيانات من حيث تمييز الأشخاص وتصنيفهم ومراقبتهم.

  • كائنات الذكاء الاصطناعي مواطنون جدد

يخوض الكاتب، في الفصل الخامس، في الجدال المتعلق بالكائِنات الأخرى غير البشرية في الوقت الذي تتمحور فيه معظم أخلاقيات الذكاء الاصطناعي والنقاشات السياسية الكلاسيكية حول الإنسان. ويتساءل عن إمكانية تمتُّع أنظمة الذكاء الاصطناعي والروبوتات بوضع سياسي مثل المواطنة، ويستعين بأفكار أتباع ما بعد الإنسانية “Posthumanism”(46) الذين يُشكِّكون في النظرة التقليدية للسياسة المقتصرة على البشر، ويرون أن كائنات اصطناعية فائقة الذكاء بإمكانها أن تحل محل الإنسان. ليتساءل عن التداعيات السياسية إذا تولى الذكاء الخارق أمور السياسة. وهل هذا سيعلن نهاية المفاهيم السياسية الحديثة مثل الحرية والعدالة والديمقراطية للإنسان.

إن مسألة الأخذ بعين الاعتبار كائنات غير بشرية من الناحية الأخلاقية، متداولة بقدر كبير في الفلسفة السياسية الحديثة والفلسفة الأخلاقية التطبيقية. ولعل كتاب الفيلسوف الأسترالي، بيتر سينجر (Peter Singer)، “تحرير الحيوان”(47)، من أهم الكتب التي تقدم حُججًا نفعية(48) لتحرير الحيوانات، داعيًا إلى مراعاة مصالحها، وتوسيع مبادئ المساواة من البشر إليها، وإنهاء التحيز والتمييز الممارسيْن من طرف الانسان على الحيوانات (صيدها وذبحها واستهلاك لحومها وجلودها…إلخ). وستتطور فكرة شمول الكائنات غير البشرية في التفكير الفلسفي في إطار حماية البيئة، لتشمل كل الكائنات، بل وتتعدى ذلك إلى كل الأشياء المحيطة بالإنسان(49). وهذا ما يذهب اليه التفكير ما بعد الإنساني(50)، الذي يعود إليه كويكلبيرج لتأكيد شمول الآلة في هذه التعددية ومنحها وضعًا أخلاقيًّا وسياسيًّا، متجاوزًا بذلك الإنسان، ومقترحًا أنطولوجيات أكثر انفتاحًا تشمل التكنولوجيا أيضًا. وبالتالي لن يُعد الذكاء الاصطناعي تهديدًا للاستقلالية البشرية. في هذا السياق، يستعيد الكاتب دفاع الفيلسوفة الأسترالية، روزي بريدوتي (Rosi Braidotti)، عن إعادة التفكير في الذاتية “كتَجمع يشمل الجهات الفاعلة البشرية وغير البشرية، والوساطة التكنولوجية، والحيوانات، والنباتات، والكوكب ككل”(51). وتؤكد بريدوتي وجهة نظر معيارية وسياسية محددة، قائلة: “نحن بحاجة إلى العمل من أجل علاقة أكثر مساواة مع الآخرين من غير البشر”(52)، رافضة هيمنة الإنسان على باقي الموجودات.

وينتهي الفصل بتأكيد أن سياسات الذكاء الاصطناعي غير المتمركزة حول الإنسان تعيد تشكيل العلاقة بين الإنسان والذكاء الاصطناعي؛ لأن إذا ما تم تضمين الذكاء الاصطناعي في المجتمع السياسي مع باقي الموجودات كما يطالب به مفكرو ما بعد الإنسانية، فلا ينبغي أن يكون محوره الإنسان فحسب ولا يكون في خدمة البشر أو خدمة رأس مال نخبة صغيرة منهم. بل يجب أن يكون موجهًا نحو قيمة ومصالح الكيانات الطبيعية الأخرى كذلك، مثل الحيوانات والنظم البيئية “Ecosystems” وكوكب الأرض عمومًا.

قد تبدو هذه المرحلة من التفكير نوعًا من الشطح، رغم أنه يحظى بقبول كبير من التيار ما بعد الإنساني. لهذا تجند له بعض المشتغلين بالذكاء الاصطناعي، مُقللين من شأنه وأهميته. وهذا ما يذهب اليه على سبيل المثال المهندس الفرنسي الأميركي وعالم الحاسوب (وأحد مصممي المساعد الصوتي سيري Siri لشركة آبل Apple)، لوك جوليا (Luc Julia)، في كتابه “الذكاء الاصطناعي غير موجود”؛ إذ يرى أن الذكاء الاصطناعي لا يمكنه أن يتخطى ذكاء الإنسان بأي شكل من الأشكال، ولن تقوم الروبوتات إلا بما يأمرها به الإنسان فحسب. فهي بإمكانها أن تُحسِّن من أسلوب حياة البشر في النقل والطب والبيئة…إلخ، لكن لا يمكنها الذهاب أبعد من هذا؛ لأن ترميز الخوارزميات هو بين يدي الإنسان(53). وبالنتيجة فإن الذكاء الاصطناعي هو بالكاد آلية من آليات الصناعة الحديثة التي تخدم الإنسان وتطور من مستوى عيشه فحسب.

خاتمة

يخلص مارك كويكلبيرج إلى أن القضايا التي نهتم بها حاليًّا في النقاشات السياسية والمجتمعية مثل الحرية والعنصرية والعدالة والديمقراطية تأخذ أهمية جديدة ومُلحَّة في ضوء التطورات التكنولوجية مثل الذكاء الاصطناعي وعلم الروبوتات؛ وإلى أن وضعَ تصورٍ لسياسات الذكاء الاصطناعي والروبوتات ليس مجرد مسألة تطبيق مفاهيم منتمية إلى الفلسفة السياسية، ولكن هو دعوة إلى التفكير في المفاهيم ذاتها (الحرية، المساواة، العدالة، الديمقراطية…إلخ)، وأيضًا لإثارة أسئلة مثيرة للاهتمام عن طبيعة ومستقبل السياسة، وعن أنفسنا. كما يرى الكاتب أنه نظرًا لتشابك التكنولوجيا الوثيق مع التحولات المجتمعية والبيئية والوجودية، لم تعد الفلسفة السياسية في القرن الحادي والعشرين تتجنب ما أسماه مارتن هايدجر (Martin Heidegger) “السؤال المتعلق بالتكنولوجيا “The question concerning technology”(54). ثم يدعو الكاتب إلى خطوات يجب اتخاذها في هذا المجال، منها الحاجة إلى مزيد من الأبحاث عن العلاقة بين الفلسفة السياسية وفلسفة التكنولوجيا، وإلى مزيد من التفكير في كيفية جعل سياسات الذكاء الاصطناعي أكثر تشاركية وديمقراطية واهتمامًا بالسياقات العالمية والاختلافات الثقافية.

وأخيرًا، تجدر الإشارة إلى أن أهمية كتاب مارك كويكلبيرج هي في كونه دعوة إلى ضرورة التفكير في ما توفره التكنولوجيا الذكية للإنسان وإمكانية خروجها الكامل عن سيطرته، والتي تبقى محل تجاذب بين المتحمسين للفكرة والمقللين من أهميتها. ويمكن اعتبار كتاب كويلكبيرج، الذي يتميز بغزارة مراجعه قراءة جديدة في الفلسفة السياسية بدءًا منذ العهد الإغريقي، في القرن الرابع قبل الميلاد، إلى الفكر ما بعد الإنساني الراهن، في ضوء ما يثيره الذكاء الاصطناعي من إشكالات ومعضلات أخلاقية(55). وهذا ما يجعل الكتاب مرجعًا مُهما للباحثين في التحولات التي يعرفها حقل الفلسفة السياسية أمام امتحان الذكاء الاصطناعي(56).  ولكن رغم هذه القيمة المعرفية التي يتميز بها هذا الكتاب، إلا أن صاحبه يبدو وكأنه يُحمِّل الذكاء الاصطناعي متاهات الإنسان المعاصر السياسية، ويعطي الانطباع للقارئ بأن الأمور ستفلت من بين يدي الإنسان، ليتمكن هذا الذكاء الاصطناعي من القضاء على ما أسست له الحداثة السياسية منذ عصر الأنوار.

المراجع

  • نذكر على سبيل المثال بعض الكتب التي صدرت حديثًا في هذا المجال:
  • Arshin Adib-Moghaddam, Is Artificial Intelligence Racist. The Ethics of AI and the Future of Humanity (London: Bloomsbury Academic, 2023), 160 pages.
  • Paula Boddington, AI Ethics (Singapore: Springer, 2023), 522 pages.
  • Wayne Holmes and Kaśka Porayska-Pomsta, The Ethics of Artificial Intelligence in Education Practices, Challenges, and Debates (New York: Routledge, 2023), 312 pages.
  • Ariane Hanemaayer, Artificial Intelligence And Its Discontents. Critiques From The Social Sciences And Humanities (London: Palgrave Macmillan, 2022), 275 pages.
  • مارك كويكلبيرج هو أستاذ فلسفة الإعلام والتكنولوجيا في قسم الفلسفة في جامعة فيينا بالنمسا. اشتهر بأعماله في فلسفة التكنولوجيا وأخلاقيات الروبوتات والذكاء الاصطناعي. كان سابقًا أستاذًا للتكنولوجيا والمسؤولية الاجتماعية في جامعة دي مونتفورت (De Montfort University) في ليستر Leicester بالمملكة المتحدة، ومديرًا إداريًّا لمركز “TU3” للأخلاقيات والتكنولوجيا. وهو مؤلف عدد من الكتب، منها “أخلاقيات الذكاء الاصطناعي AI Ethics” (2020)، وأخلاقيات الروبوت Robot ethics”” (2022). وصدر له مؤخرًا “التقنيات الرقمية والزمانية وسياسة التعايش Digital Technologies, Temporality, and the Politics of Co-Existence ” (2023)
  • Mark Coeckelbergh, The Political Philosophy of AI: An Introduction (Cambridge: Polity Press, 2022), 176 pages.

هذا وسنعتمد على ترقيم الصفحات في الهوامش على النسخة الإلكترونية.

  • , p. 16.
  • , p. 17.
  • , p. 17.
  • الخوارزمية هي سلسلة واضحة ومحدودة من التعليمات الصارمة، تُستخدم في ميدان الرياضيات وعلوم الكومبيوتر، لحل فئة من المشكلات المحددة أو لإجراء عملية حسابية أو لمعالجة البيانات.
  • في مقالته الشهيرة بعنوان “مفهومان للحرية” ” “Two Concepts of Libertyيعرِّف إشعيا برلين الحرية السلبية بأنها غياب للعوائق والحرية الإيجابية إمكانية فعل شيء ما. صدرت المقالة في عام 1969، وهي في الأصل محاضرة افتتاحية ألقاها برلين في جامعة أوكسفورد، في 31 أكتوبر/تشرين الأول 1958، ثم صدرت بعد ذلك في عدة طبعات، على سبيل المثال:

Isaiah Berlin, Four Essays on Liberty (London: Oxford University Press, 1969), p. 118-172.

Isaiah Berlin, The Proper Study of Mankind (London: Chatto & Windus, 1997), pp. 191-242.

  • بانوبتيكون تصميم يسمح بمراقبة السجان لجميع السجناء في وقت واحد ودون علمهم بذلك. وقد وظف الفيلسوف الفرنسي ميشيل فوكو (1926-1984) هذا المفهوم للحديث عن مراقبة المجتمع والمؤسسات للمواطنين.

(10) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 28.

(11) Ibid., pp. 33-34.

يتم ذلك مثلًا عبر الإعلانات الموجهة ذات الطابع الشخصي أو الرسائل الخفية والمُبطنة التي بإمكان الذكاء الاصطناعي توفيرها للشركات أو المؤسسات عبر الشبكة العنكبوتية لدفع مجموعة من المواطنين لاتخاذ قرار لفائدتها.

(12) Ibid., p. 38.

(13) Ibid., p. 39.

(14) تنسب إلى النحات والرسام الأميركي، ريتشارد سيرا Serra)  (Richard، عام 1973، عبارة أصبحت مشهورة على منصات التواصل الاجتماعي مفادها: “If something is free, you’re the product” (إن كان هناك شيء مجاني فاعلم أنك أنت السلعة).

Brandeis Hill Marshall, Data Conscience. Algorithmic Siege on our Humanity, (New Jersey: Wiley, 2023), p. 30.

(15) Ibid., p. 45.

(16) Ibid., p. 51.

(17) في نظر ميل، الحرية يجب أن تشمل حرية الضمير في أوسع معانيها: حرية الفكر والشعور، والحرية المطلقة في الرأي والمشاعر في جميع المجالات العملية والعلمية والأخلاقية والدينية. انظر:

John Stuart Mill, On Liberty and Other Essays (London: Oxford University Press, 1998), p. 16-17.

(18) نقول “لحد الآن”؛ لأن الأمور مرشحة للتغير بسرعة.

(19) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 64.

(20) John Rawls, A theory of justice, Cambridge: Harvard University Press, 1971, pp. 60-65.

ويؤكد راولز أن مبدأ الحرية يوجِّه مبدأ الفرق، في حين أن الأخير يحد من الأول. بمعنى آخر، لا وجود للمبدأ الثاني قبل تبني المبدأ الأول بصفة كلية ونهائية.

(21) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 64.

(22) إن فكرة “التمييز الإيجابي” التي تتقاطع مع مبدأ الفرق الراولزي تجد سندها في الأمر التنفيذي 10925 الذي وقَّعه الرئيس، جون كينيدي (John Kennedy) (1917-1963)، في 6 مارس/آذار 1961، وذلك لتفعيل الإجراءات ضد التمييز في العمل، الممارس ضد المرأة والمواطنين غير البيض والفئات المحرومة على العموم. ويقضي هذه الأمر التنفيذي بنوع من التفضيل لصالح هذه الفئات في ميدان العمل نظرًا للحيف الممارس في حقها من طرف بعض فئات المواطنين البيض. ثم توالت الأوامر التنفيذية من الرئاسة الأميركية وكان آخرها الأمر التنفيذي 13672 في عهد الرئيس باراك أوباما (Barack Obama)، في 21 يوليو/تموز 2014. وكلها تصب في اتجاه مبدأ الفرق الراولزي الذي يقر بتفضيل الأفراد المنتمين إلى الفئات المحرومة، لإرساء العدالة كأنصاف في المجتمع. وتطورت الفكرة بعد ذلك في الولايات المتحدة وفي العديد من البلدان الأخرى للحد من هيمنة الفئات المستفيدة من الفرص المتاحة نظرًا لوضعيتها الاجتماعية المريحة، والتي أتاحت لها تعليمًا عالي الجودة. للاطلاع على تأريخ موجز للأوامر التنفيذية الخاصة بالتمييز، انظر:

U.S. Department of Labor, Office of Federal Contract Compliance Programs, History of Executive Order 11246,

 http://surl.li/jyaxs (تاريخ الدخول: 1 أغسطس/آب 2023)

(23) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 69.

(24) Ibid., p. 72.

(25) Ibid., p. 73.

(26) نظام الحكم المعتمِد على أن يكون اختيار صانعي القرار على أساس خبرتهم العلمية أو التقنية؛ وهذا يناقض مبدأ الديمقراطية القائمة على انتخاب المواطنين لممثليهم في إدارة الشأن العام.

(27) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 92.

(28) Alexander Hamilton, et al., The Federalist papers (Oxford: Oxford University Press, 2008), pp. 48-55.

(29) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 104.

(30) Ibid., p. 107.

(31) Ibid., p. 113.

(32) Ibid., p. 117.

استعار كويكلبيرج فكرة إسهام الذكاء الاصطناعي في وحدة الانسان المعاصر من كتاب بعنوان مُعبِّر “وحيدون ونحن معًا” لمؤلفته عالمة الاجتماع الأميركية، شيري توركل:

Sherry Turkle, Alone Together: Why We Expect More from Technology and Less from Each Other (New York: Basic Books, 2011), 418 pages.

(33) Ibid., p. 117.

(34) Ibid., p. 118.

استعار الكاتب فكرة “القبلية” من مقال لأستاذ علم النفس في جامعة واين الأمريكية Wayne State University أراش جافانبخت، بعنوان:

Arash Javanbakht, “he Matrix is already here: Social media promised to connect us, but left us isolated, scared and tribal”, The Conversation, November 12.

http://surl.li/kbyti (تاريخ الدخول: 12 أغسطس/آب 2023)

 (35) وهو المفهوم الذي طورته في كتابها:

Hannah Arendt, Eichmann in Jerusalem: A Report on the Banality of Evil (New York: Penguin, 2006), 336 pages.

كانت الفيلسوفة، حنة آرندت، مراسلة لصحيفة نيويوركر في عام 1961 إلى القدس لكتابة تقرير عن محاكمة أدولف أيخمان Adolph Eichmann (1906-1962)، الموظف النازي المسؤول عن نقل ملايين اليهود وغيرهم إلى معسكرات الاعتقال المختلفة. على نقيض ما ذهبت إليه المحكمة الإسرائيلية والرأي العام الغربي المهتم بالقضية ذلك الحين، أعطت آرندت صورة لأيخمان كشخص بيروقراطي عادي، لطيف نوعًا ما، غير منحرف ولا سادي، ولكنه طبيعي بشكل مرعب. لقد تصرف أيخمان دون أي دافع سوى التقدم بجد في مسيرته المهنية في البيروقراطية النازية ولم يكن وحشًا بدون أخلاق، وقد قام بأعمال شريرة بدون نوايا سيئة، فأضحى الشر لديه عاديًّا. وقد جرَّ هذا الموقف على آرندت العديد من الانتقادات. انظر في هذا الصدد على سبيل المثال:

Kathleen B. Jones, The Trial of Hannah Arendt, Humanities, Volume 35, Number 2, March/April 2014.

(تاريخ الدخول: 14 أغسطس/آب 2023)  http://surl.li/kaldq

 (36) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p. 118.

(37) انظر في هذا الصدد:

Kenneth R. Himes, Drones and the Ethics of Targeted Killing (London: Rowman & Littlefield Publishers, 2015), 212 pages.

(38) Sattarov Faridun, Power and Technology (London: Rowman & Littlefield, 2019), 208 pages.

(39) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., pp. 129-132.

(40) Ibid., p. 133.

(41) Ibid., p. 135.

(42) Ibid., p. 139.

(43) Michel Foucault, Surveiller et punir (Paris: Gallimard, 1975), pp. 137-143.

(44) Mark Coeckelbergh, The Political Philosophy of AI, op. cit., p.144.

(45) Ibid., p. 153.

(46) يقدم التيار ما بعد الإنساني نظرية معرفية جديدة غير متمركزة حول الانسان، ساعيًا إلى تقويض الحدود التقليدية بين الإنسان والحيوان والتكنولوجيا. انظر في هذا الصدد:

Cary Wolfe, What Is Posthumanism, (Minneapolis: Univ Of Minnesota Press, 2009), pp. xi- xxxiv.

(47) Peter Singer, Animal Liberation (New York: HarperCollins, 2009), 368 pages.

علمًا بأن الطبعة الأولى للكتاب صدرت في 1975.

(48) النفعية “Utilitarism” تيار فلسفي يرى أن الزيادة في رفاهية الإنسان هي العامل الوحيد الذي يسمح بالحكم على أخلاقية فِعل مُعين، كما حَدده جريمي بنثام (Jeremy Bentham) (1748-1832) وجون ستيوارت ميل. للاستزادة راجع: محمد أوريا، “النظريات الأخلاقية المعاصرة وإشكاليات التطبيق: المعضلة الأخلاقية واتخاذ القرار نموذجًا”، دورية تبين للدراسات الفلسفية والنظريات النقدية، العدد 36، الدوحة، المركز العربي للأبحاث ودراسة السياسات، 2021، ص 7-30.

(49) لتراجع: محمد أوريا، ” نسق الائتمانية عند طه عبد الرحمن كنظرية لحل المعضلات الأخلاقية” في: الأخلاق الإسلامية ونسق الائتمانية: مقاربات متعددة، Leiden، Brill، 2020، ص 232-254.

(50) تجدر الإشارة إلى أن المفكر المغربي، طه عبد الرحمن، يذهب المذهب نفسه من خلال المرجعية الإسلامية. ويستعمل المبدأ القرآني “الرحمة” المأخوذ من صفة “الرحمن” الإلهية ويعطيه بعدًا أكبر يشمل كل الكائنات والأشياء. ودليل طه على هذا التراحم -أو على ضرورته-، هو “أننا نشعر بوشائج بيننا وبين هذه الأشياء، حتى كأنها تملك روحانية مثل روحانيتنا، بل كأن وجودها مثل وجودنا، متى أضحت مهددة في هذا الوجود، كما نرى في حالات “تلوت الطبيعة”. واستنادًا إلى هذا، يقدم طه نظرته للعلاقات التي يريد لها أن تسود بين الموجودات في الكون. لتراجع: طه عبد الرحمن، روح الحداثة، المدخل إلى تأسيس الحداثة الإسلامية، (الدار البيضاء-بيروت: المركز الثقافي العربي، 2006)، ص 244- 254.

(51) Braidotti, Rosi, “Posthuman Critical Theory”, Journal of Posthuman Studies 1(1), 2017, p. 9.

(52) Ibid., p. 10.

(53) Luc Julia, L’intelligence artificielle n’existe pas, (Paris: Ed. First, 2019), pp. 120-122.

(54) Martin Heidegger, The Question Concerning Technology and Other Essays, (New York: Garland Publishing, 1977), p. 3-35.

(55) نستعمل هنا المفهوم الفلسفي والمنطقي للمعضلة الأخلاقية، لتراجع في هذا الصدد: محمد أوريا، “النظريات الأخلاقية المعاصرة وإشكاليات التطبيق…”، مرجع سابق، ص 10-12.

(56) رغم أن عدد صفحات الكتاب لا يتجاوز 180 صفحة، اعتمد مارك كويكلبيرج أكثر من 350 مرجعًا، أغلبها في الفلسفة السياسية والباقي في الذكاء الاصطناعي. وربما كثرة المراجع هذه، رغم أهميتها للباحثين، هي التي حالت دون إعطاء مساحة أكبر في الكتاب للمقلِّلين من شأن الذكاء الاصطناعي وقدرته على إفساد ما أسست له الحداثة السياسية؛ إذ لا يهتم كويكلبيرج بالأساس إلا بالشواهد التي تؤيد الفكرة التي يدافع عنها، وهي إمكانية تقويض الذكاء الاصطناعي لمفاهيم هذه الحداثة السياسية.