2023العدد 194دراسات

الذكاء الاصطناعي وأمن الإدارة   

مقدمة:

منذ أن ظهرت الشبكة العنكبوتية وتطورّت تفاقم هاجس أمن المعلومات الواردة فيها أو يمرّ عبرها، لاسيما عندما تكون تلك المعلومات ذات صلة بالأحوال الشخصية أو تحمل أسرارًا تمسّ الإدارات والهيئات الحكومية والمؤسسات الخاصة والعامة في مختلف القطاعات، ناهيك عن الأمن القومي لكل دولة من دول العالم.

ولعل ما يهمّ الإدارة أكثر من غيرها هو الحفاظ على سريّة المعلومات الشخصية لموظفيها وشركائها والمتعاونين معها، كما هو منصوص عليه في الإعلان العالمي لحقوق الإنسان الصادر عن الأمم المتحدة يوم 10 ديسمبر عام 1948، حيث نقرأ فيه أنه لا يُعرّض أحدًا لتدخل تعسفي في حياته الخاصة أو أسرته أو مسكنه أو مراسلاته، ولا يُعرّض لحملات على شرفه وسمعته،  ولكل شخص الحق في حماية القانون من مثل هذا التدخل أو تلك الحملات، والنصوص من هذا النوع الناهية عن التعرّض لخصوصيات الأفراد والمجموعات لا تحصى ولا تُعد، لكن شتّان بين النصّ وتطبيقه في الميدان.

والواقع أن الوسائل الرقمية التي يستعملها الخبراء منذ أزيد من عقدين؛ لضمان الأمن الرقمي وغير الرقمي للجميع، لم تعد تفي بالمطلوب، ولذا لجأ هؤلاء الباحثون إلى أداة فعالة تساعد كثيرًا في باب الأمن، هذه الأداة هي الذكاء الاصطناعي.

وعندما يتعلق الأمر بالأمن الرقمي، فإن وصفًا بسيطًا لحالة التهديد الحالية في فضاء الإنترنت يكفي لفهم أسباب اهتمام مختلف المؤسسات والإدارات في العالم بالذكاء الاصطناعي؛ فمن الناحية النظرية، يمكن للذكاء الاصطناعي، بفضل قدرته على فهم وتحليل سياق معيّن، أن يساعد في اكتشاف الانحرافات أو السلوكيات غير العادية، ومواجهة الهجمات الإلكترونية؛ إذ يسمح بزيادة معدّل الكشف عن الخروقات مبكرًا، ويحسّن القدرة على التكيّف مع التطورات الدائمة لتكنولوجيا المعلومات.

ما من شكّ أن الذكاء الاصطناعي يُحدث الآن ثورة في حياتنا اليومية وفي الإدارات التي نتعامل معها، فهو يُسيّر السيارة ذاتية القيادة، وله باع طويل في الطبّ التنبؤي، وروبوت المحادثة الذكي، والجوسسة على مختلف الهيئات في جميع القطاعات من خلال مواقعها الإلكترونية، وتظهر وتتوسع الاستخدامات الجديدة للذكاء الاصطناعي من هذا القبيل كل يوم، غير أن موضوع إدارة مخاطر الأمن من خلال هذه التكنولوجيا ما يزال في بدايته، ونادرًا ما تتم مناقشة جوانبه المختلفة.

والأمن مصطلح واسع، وله عدد من المعاني في مختلف القطاعات، وله أيضًا مستويات متفاوتة على صعيد (الأفراد، والجماعات، والمؤسسات)، ولتدعيم أداءه يتم تطبيق وتطوير تقنيات الذكاء الاصطناعي، وقد استطاعت العديد من هذه التقنيات إفادة المجتمع بشكلٍ كبير، مثل: الحدّ من الاحتيال على بطاقات الائتمان، لكن للمحتال أيضًا نفس الوسائل لاختراق الأسرار وإلحاق الضرر بضحاياه، ولذا لجأ الخبراء إلى الذكاء الاصطناعي الذي لم يترك بابًا إلا طرقه -من عمليات البيع والشراء إلى النقل والصناعة وتشغيل الروبوتات…- حتى أن أحدهم قال مازحًا إن المجال الوحيد الذي لن يَلِجْه الذكاء الاصطناعي هو تصفيف الشَّعر لدى الحلاقين!

وباختصار، هناك من يصنّف الذكاء الاصطناعي إلى نوعين: ذكاء محدود، وذكاء عام؛ فأما الذكاء الاصطناعي المحدود (Narrow)، فهو الأكثر استعمالًا والأكثر تقدمًا، على الرغم من أن الذكاء الاصطناعي العام، هو الذي يطرح المسائل الكبرى المطلوب حلّها لرفاهية البشرية وازدهارها، ويتميز الذكاء الاصطناعي المحدود بكونه يقوم بمهمّة واحدة لا أكثر، مثل: تسيير السيارة ذاتية القيادة (كما أسلفنا)، أو الطائرة  من دون طيّار، أو البحث في محرّك من محركات الشبكة العنكبوتية، ويمكن لهذا الذكاء أيضًا أن يساعد حتى الفلاّح للتعرف على الثمار التالفة في الحقول والتنبّؤ بالتلف قبل حدوثه،… إلخ.

نستطيع القول بأن الاهتمام المتزايد بالذكاء الاصطناعي راجع إلى:

  • التطورات التي عرفتها الخوارزميات المعلوماتية المعقّدة.
  • الزيادة الهائلة في سرعة إنجاز المهام المطلوبة، وفي قوة الحوسبة.
  • القدرة على استيعاب وتحليل وتصنيف البيانات الواردة من مصادر مختلفة (الصوت، الفيديو، النصوص المكتوبة، وسائل التواصل الاجتماعي،… إلخ.).
  • القدرة على تخزين واسترجاع كميات لا حدود لها من البيانات خلال مدة وجيزة لا تتجاوز أجزاء الثانية.

1– تحصين الذكاء الاصطناعي والأمن في الإدارة:

يتبيّن من المعطيات الإدارية أن الحلول التي يوفرها الذكاء الاصطناعي، والتي تتزايد بشكلٍ مذهل لكثرة الطلب عليها في مختلف الإدارات والهيئات، بعيدة جدًا عن توفير الحصانة المرجوة ضد الهجمات الإلكترونية، ومما يزيد الطين بلة أن الوسائل المستخدمة في بعض الأحيان تكون من نوع جديد لا بد من التعرّف على خصوصياته قبل التصدي إليه. وفي هذا السياق، يشير الخبراء إلى خمس نقاط أساسية للنجاح في مشاريع الذكاء الاصطناعي بدون التعرّض لاختراق أمني رقمي، وهي :

  1. تحديد إستراتيجية إدارة المخاطر في الإدارة: يغطي مصطلح الذكاء الاصطناعي مجموعة واسعة جدًا من التطبيقات المعلوماتية، فلا يمكن- مثلًا- مقارنة مستوى مخاطر روبوت محادثة ذكي عندما نسأله عن مبلغ تعويض النظارات إذا ما انكسرت بمستوى المخاطر المترتبة عن روبوت المحادثة الخاص بالمعاملات القادر على تنفيذ عمليات، مثل: إنشاء بطاقة دفع لطرف ثالث عبر الإنترنت؛ ولهذا فمن الضروري إجراء تحليل للمخاطر لمعرفة ترتيب أولوياتها، سيكون من اللازم تخصيص مدة معتبرة في البحث عن الحلول الملائمة للتعامل مع مستجدات قضايا الاختراقات؛ ذلك أنه لا يوجد نظام محصّن ضد كل أنواع الهجومات، ولذا يتعيّن علينا توقع الهجمات وتحديد إستراتيجيات تواكب تطورات الذكاء الاصطناعي.
  2. التريّث قبل الاستعانة بمصادر خارجية: في قضايا معينة، تتمّ الاستفادة من حلول يقدمها الذكاء الاصطناعي كان قد أعدّها مصدر خارجي، وفي ذلك نصيب من المخاطر! ينبغي في البداية التأكد من خصوصيات الملكية الفكرية، ويسري ذلك على كل البيانات، وهذا قبل اتخاذ قرار الاستعانة بمصادر خارجية؛ فالكل يعلم أن سوق الذكاء الاصطناعي يشهد اليوم ازدهارًا كبيرًا، والسؤال الذي ينبغي طرحه: ماذا سيحدث إذا ما قرر منافسك المباشر شراء المصدر الذي كنت تتعامل معه لعدة أشهر؟ يجب أن تراعي الإدارة هذه المخاطر خلال مراحل التعاقد مع الغير. وإلى جانب قضايا الملكية الفكرية، يجب أن يحدّد العقد المبرم بين الطرفين احتياجات استرداد أو حذف بيانات التدريب أو القواعد المكتسبة، ويمكن أن تكون الأسئلة أكثر دقةً وعمقًا مما هو معمول به في الحلول التقليدية التي لا تستعمل الذكاء الاصطناعي.
  3. حماية البيانات الإدارية في كل مرحلة من مراحل مشاريعها: البيانات هي أساس مشاريع تسيير المؤسسات، وتتطلب هذه المشاريع معالجة مجموعة ضخمة ومتنوعة من البيانات، وقبل الحديث عن الحماية من تسرّب المعلومات يجب التأكد من أن الاستخدام المطلوب يتوافق مع القوانين السارية المفعول، ولاسيما تلك المتعلقة بحماية البيانات.
  4. حماية منصّة البيانات الضخمة (Big Data): فالبيانات وفيرة ومركّزة بشكلٍ كبير في الإدارات، وبالتالي ستكون معرّضة أكثر من غيرها لخطر السرقة أو تعديل معلوماتها؛ ونظرًا لأن أنظمة الذكاء الاصطناعي تتطوّر بشكل سريع، فمن الصعب اكتشاف آثار اللمسات الطفيفة التي قد تجرى عليها، ومنها التغييرات الضارة المحتملة؛ لذلك يتعيّن تبنّي منهجية جيّدة لحماية البيانات الضخمة، بغض النظر عن البيئة المستخدمة فيها داخل المؤسسات والإدارات.
  5. تأمين التطبيق (البرنامج): يمكن التغلّب على الكثير من محاولات الهجوم بتبني ممارسات مناسبة من الناحية الأمنية، ومع ذلك، فهذا الإجراء ليس كافيًا للحماية من جميع حالات الاحتيال. نلاحظ أن معظم تدابير الأمان تركّز على ثلاثة جوانب هي: التحكم في مُدخلاته، وجعل المعالجة أكثر موثوقية، والتحكم في مُخرجاته. فمن الضروري ألا يتمكّن المهاجم من تعديل البيانات بين لحظة الحصول عليها ولحظة إدخالها في أجهزة الإدارة؛ لتحقيق ذلك، يجب تدقيق معالجة البيانات لضمان الحماية الشاملة. أما معالجة الموثوقية فتتضمن التحقق من نوع البيانات، واكتمال المعلومات المُدخلة أو المستخرجة، ومن المفيد الإشارة إلى أن اكتشاف سلوك المستخدم المشبوه يعدّ أحد العوامل الرئيسة لتحسين الأمن الرقمي. وفي باب المخرجات، يجب حماية جميع التنبؤات المتوفرة في الجهاز ضد محاولات الوصول إليها، كما ينبغي الكشف عن المخرجات المشبوهة، وكمثال عملي بسيط حول التحقيقات الجائزة، يمكن قبل بدء التحويل المصرفي إلى زبون معيّن، التأكد من أن المبلغ لا يزيد عن 10 أضعاف متوسط ​​المبالغ المحوّلة خلال العام الماضي إلى نفس المستفيد. 

2- من منجزات الذكاء الاصطناعي في أمن الإدارات:

إن مجرد وصف حالات التهديد الحالية في الفضاء الإلكتروني يكفي لفهم اهتمام صناعة الأمن الرقمي بالذكاء الاصطناعي، كما ندرك الآمال التي تضعها مختلف المؤسسات والإدارات في هذه الحلول لحماية محيطها من مجرمي الإنترنت والمهاجمين الذين يريدون سرقة بياناتها والتلاعب بها، بينما يبحث مجرمو الإنترنت عن كشف العيوب التي تؤثر على البرامج المتعددة المنتشرة في المؤسسات العامة والخاصة؛ وذلك لاختراق الأنظمة المعلوماتية الخاصة بتلك الهيئات. دعنا نشير فيما يلي إلى بعض منجزات الذكاء الاصطناعي في مجال الأمن.

لقد تمّ دمج تقنيات الذكاء الاصطناعي في أدوات مكافحة الفيروسات الإلكترونية، ومعابر البريد الإلكتروني المنتشر في مختلف الإدارات والمؤسسات، وبوابات شبكة الإنترنت في كل مكان، وبوابات الحماية المسماة “الجدران النارية”؛ ولبلوغ ذلك استعمِلت معدَّات تتفاعل تلقائيًّا مع الهجمات عن طريق مراقبة وتصفية حركة الاتصالات الضارة اعتمادًا على تقنيات متقدمة.

كما أدمج الذكاء الاصطناعي في مراقبة شبكات الاتصال بالمؤسسات والإدارات: في البداية يتعرف هذا النظام على السلوك “الطبيعي” للبنية التحتية في الشبكة الإدارية، وهو ما يسمح له بالإبلاغ عن أي انحراف كدليل على وجود محتمل لمخاطر مرتبطة بأمن الإدارة الرقمي. عند إضافة هذه التقنيات إلى بنية أساسية فإن ذلك يحدِث زيادة في عبء العمل بالمؤسسة المعنية، وفي المقابل يتم اكتشاف المزيد من الهجمات في حينها أو اكتشافها مسبقًا؛ ولذلك فإن أحد تحديات الذكاء الاصطناعي اليوم هو تحسين دمج هذه الأدوات في مختلف شبكات الاتصال داخل وخارج الإدارات.

ومن جهة أخرى، يتم استغلال الذكاء الاصطناعي للتحقيق في التنبيهات والبحث الاستباقي، إذ يستفيد هذا الذكاء من البيانات للبحث عن آثار هجمات سابقة مسّت الإدارة ولم تُكتشف في حينها، وتعتمد هذه العملية على كل من (الخبرة البشرية، والآلة). وعندما يُدمج الذكاء الاصطناعي في هذه الأدوات فإنه يساعد الخبراء على الوصول إلى المعلومات الصحيحة بسرعة فائقة وسهولة كبيرة، كما يوجههم في أبحاثهم.

ومن الأمثلة الحديثة: تلك التي أوضحتها دراسات عديدة صدرت في موضوع إستراتيجيات إدارة مخاطر النقل التي ينبغي أن تتبناها السلطات من أجل تحسين سلامة القطاع العام وتقليل مخاطره في المناطق الحضرية، ومن تلك المخاطر العنف الإجرامي ضد المواطنين في المناطق الحضرية الذي يؤثر على حياة الناس، وينبغي اعتباره عاملًا مهمًّا في إدارة وتخطيط قطاع النقل العام ضمن بناء البنية التحتية في المناطق المأهولة بالسكان، وأدى البحث في هذا المجال إلى تطوير أنظمة تسيير قائمة على توظيف الذكاء الاصطناعي في الإدارة العامة، وهو ما من شأنه أن يسهّل اتخاذ القرار في اختيار الطرق المثلى في النقل العام.

فالهدف الأخير في إدارة قطاع النقل هو تحسين جودة الخدمات وكذلك ضمان أمن المسافرين. وكما أسلفنا، فقد انكبت الكثير من الدراسات البحثية على تطبيق الذكاء الاصطناعي في هذا القطاع، وهكذا اقترح العديد من الباحثين أنظمة وتقنيات ذكية لتحسين السلامة العامة للمواطنين عند السفر بوسائل النقل العام ضد الجرائم التي تحدث في الحافلات وسيارات الأجرة والقطارات، وتظهر النتائج أنه بإمكان الإدارة التنبؤ بالحوادث على شبكات النقل العام، لكن دقة التنبؤات تعتمد على دقة تدفق حركة المرور.

وفي باب الاستخبار، يتعيّن جمع المعلومات حول تهديدات المهاجمين النشطين، وبدلًا من أن تواجه الإدارة هؤلاء الأعداء المختفين، يستحسن في البداية أن تحصل على معلومات عنهم للتصدّي إليهم بشكلٍ أفضل. وتتمثّل إحدى المشكلات المتعلقة بالاستخبار في القدرة على توفير كافة المعلومات بطريقة منظمة، وهنا يؤدي الذكاء الاصطناعي دورًا رائدًا في غربلة المعلومات وتصنيفها بعد جمعها، ثم تحديثها، وكل ذلك يتم في لحظات معدودات.

كما يساعد الذكاء الاصطناعي في إدارة الثغرات الأمنية داخل المؤسسات؛ فمن من بين آلاف الثغرات من هذا القبيل، التي يتم نشرها كل عام، لا يستخدم المهاجمون سوى جزء ضئيل منها. وفي هذا السياق، يتمّ دمج الذكاء الاصطناعي للتغلب على صعوبات تقييم المخاطر الحقيقية التي تنطوي عليها تلك الثغرات وتحديد الأولويات في معالجتها وأتْمَتة نشر التصحيحات؛ ذلك ما يدفع مصنّعي أدوات إدارة الثغرات إلى دمج تقنيات الذكاء الاصطناعي في حلولهم.

وبخصوص اختبارات الاختراق، لابد من العثور على عددٍ كبير من الثغرات الأمنية المحتملة في مختلف الأنظمة ثم استغلالها من خلال تقنيات دقيقة، وبذلك سرعان ما تصبح مجموعة الخيارات الممكنة أكبر من أن يديرها الإنسان. وعلاوة على ذلك، أظهر تحليل ممارسة المختبرين من البشر أنهم يميلون إلى تفضيل مسار معيّن على آخر، وهذا خلافًا لتقنيات الذكاء الاصطناعي. لقد أثبت الذكاء الاصطناعي فاعليته في اختبار الاختراقات وكشف الاحتيال، وهو مجال متعلق بالأمن الرقمي في كل القطاعات الإدارية.

3- دور مجلس الإدارة في الجانب الأمني :

تهدد العديد من المخاطر الإلكترونية بيئة عملك في المؤسسة التي تنتسب إليها، حيث يتعرّض نظام المعلومات والإدارة الخاص بك لمخاطر إلكترونية كبيرة من خلال تهديدات داخلية، مثل: (التعامل مع الأخطاء والأعمال الخبيثة)، وأيضًا من خلال تهديدات خارجية، مثل: (أضرار الفيروسات المدمّرة للأجهزة والبرامج المعلوماتية)، وكذا الاختراقات والقرصنة. يتطلب كل ذلك مستوى عاليًا من الأمان، ويدعو جميع العاملين في الإدارة إلى تضافر الجهود، وهنا لا بد أن يؤدي مجلس الإدارة دورًا فعالًا في هذه المسألة. 

نشير- على سبيل المثال- إلى أنه في أوائل عام 2019، وصل عدد حسابات المستخدمين الإلكترونية المخترقة إلى مستوى مذهل حيث بلغ 2.2 مليون حساب. بالإضافة إلى ذلك، فالوضع كان أسوأ بالنسبة للشركات التي لا تؤمّن موارد شبكاتها بالشكل المناسب؛ تمّ اختراق 2.7 مليار عنوان بريد إلكتروني، ونحو مليار كلمة مرور في العالم، ومن شأن هذه الأرقام أن تدق ناقوس الخطر لدى أعضاء مجالس مختلف الإدارات، ولكن ما مدى أهمية الأمن الرقمي بالنسبة لمجلس الإدارة اليوم؟

لم تعد المسألة مجرّد قضية تتعلق بتكنولوجيا المعلومات؛ حيث اضطرت 80% من الشركات الكبيرة التي تعرّضت لمثل هذه الاختراقات إلى إخطار مجالس إدارتها، ذلك أن هذه الأحداث صارت تؤثر أكثر فأكثر على أرقام أعمال الشركات وعلى سمعة تسييرها وعلاماتها التجارية. وبغض النظر عن تكاليف تكنولوجيا المعلومات لمنع الهجوم على بيانات المؤسسات، فإن الاختراق له العديد من العواقب الضارة الأخرى، مثل: العقوبات الناجمة عن التباطؤ في الإنتاج؛ ومن ثمّ عدم احترام مواعيد تسليم البضائع والمنتجات إلى أصحابها؛ ولذا، وبالنظر إلى التداعيات بعيدة المدى التي تخلّفها الهجومات الرقمية على الإدارات، وجب أن يصبح هذا الموضوع الآن محلّ اهتمام مجلس الإدارة في كل مؤسسة، والسؤال المطروح هو: ما مدى التقدم الذي تمّ لحد الآن في هذا المجال؟ وكيف تواكب مجالس الإدارة تحديات الأمن الرقمي؟ وماذا يمكن أن نتوقع منها في السنوات القادمة؟

لقد تزايد في الوقت الراهن عدد أعضاء مجالس الإدارة عبر العالم الذين يتمتعون بخبرة في مجال الأمن الرقمي، كما تزايد عدد الأعضاء في تلك المجالس الذين أدركوا خطورة التهديدات ذات الصلة بالأمن الرقمي على مؤسساتهم، ولكن المشوار لايزال طويلًا أمام هؤلاء الخبراء لتعزيز أمنهم وأمن إدارتهم بالاعتماد أكثر فأكثر على الذكاء الاصطناعي، وقد يضطرون في يوم قادم إلى إنشاء- داخل المؤسسة- لجنة مستقلة للأمن الرقمي تقدم تقاريرها مباشرة إلى مجلس الإدارة، وتركّز في عملها على تقليل المخاطر التي تواجه الشركة وتوفير المستلزمات لمواجهة تلك المخاطر، وهنا تظهر أهمية استغلال الذكاء الاصطناعي لبلوغ هذا الهدف!

4- الطريق لايزال طويلًا:

رغم كل ما أشرنا إليه أعلاه، فإن الذكاء الاصطناعي لا يقلّل في الوقت الراهن من الحاجة إلى الخبرة البشرية، وعلينا ألا ننسى أن هذا الذكاء يواجه قيودًا أخلاقية وقانونية؛ حيث يمكنه أحيانًا اتخاذ قرارات لا تلتزم باحترام المعايير الأخلاقية، مثل: استغلال البيانات الشخصية المدوّنة في السجلات الإدارية الخاصة والعامة.

كما أن فئة من المهاجمين يستخدمون-هم أيضًا- تقنيات الذكاء الاصطناعي لتعزيز أداء اختراقاتهم بأقلّ تكلفة؛ إذ يسهّل تحديد أهدافهم، ويحسّن قدرات تسلّلهم، ويحدد لهم أفضل مَواطن الضعف في المؤسسة لاستغلالها. وهكذا نرى أن الذكاء الاصطناعي يمثّل -من خلال قدرته على معالجة كميات كبيرة من البيانات- حليفًا للمدافعين عن أمن الفضاء الرقمي، وهو في نفس الوقت حليف للمهاجمين والقراصنة!

ولذلك نجد بعض الخبراء متشائمين من دور الذكاء الاصطناعي في مجال الأمن الرقمي، لاسيما داخل الإدارات، فهذه الشركة البريطانية المختصة في الأمن الرقمي والذكاء الاصطناعي “داركتراس” DarkTrace تحاول إقناع الجمهور بأهمية الذكاء الاصطناعي كحل دفاعي، وفي نفس الوقت تصوّر استخدام خوارزميات التعلم الآلي كنموذج تهديد جديد. وفي هذا السياق، تتوقع الشركة وصول برمجيات خبيثة ذكية قادرة على التكيّف مع البيئة المتواجدة فيها بفضل الذكاء الاصطناعي، فهذا التكيّف يجعلها تنتشر بشكلٍ أفضل، وتحسّن تحديد طبيعة الأجهزة التي تمّ تثبيتها عليها أو التسلّل إليها.

في عام 2017، عندما أطلقت شركة “أبل” Apple هاتفها الذكي “آيفون أكس” iPhone X، وتفاخرت بكونها أنشأت نظامًا قويًّا للتعرّف على الوجه، تمكّنت شركة الأمن الرقمي الفيتنامية “بكاف” Bkav بعد أسبوع، من إنشاء قناع قادر على خداع ذلك النظام، بتكلفة لا تزيد عن 150 دولارًا.

ولذا لا نعتقد أن الذكاء الاصطناعي والتعلم الآلي سيحلان محلّ تقنيات الكشف عن التهديدات الحالية، على الأقل في المدى القصير أو المتوسط. وعلى كل حال، فما يهم في مجال الأمن الرقمي أن يقدم الذكاء الاصطناعي خلال مسيرته الطويلة خدمات للأفراد والمؤسسات ومختلف الإدارات الرسمية تفوق تلك التي يوفّرها للمخترقين والمعتدين. 

واللافت في مجال تخريج الخبراء في اختصاص الذكاء الاصطناعي أنه، حتى وقت قريب، كان يتمّ تدريسه بشكلٍ أساسي في الفروع المتخصصة في علوم (الحاسوب، والهندسة، والروبوتيّة، والبرمجة المعلوماتية)، وكان غالبًا ما يُستبعد الطلاب الراغبون في دخول الإدارة العامة من المجال التكنولوجي، ناهيك عن استبعادهم من حقل الذكاء الاصطناعي.

وعلى الرغم من أن الذكاء الاصطناعي ليس تخصُّصًا بحثيًّا جديدًا، فإن الأبحاث فيه قد حظيت باهتمام متجدد خلال السنوات الأخيرة؛ نظرًا للتقدم الملحوظ الذي عرفه هذا العلم. ولتلبية الحاجيات في مختلف القطاعات، صارت الجامعات تفتح اختصاصات معيّنة تُعْني بتوظيف الذكاء الاصطناعي في حماية الإدارات والمؤسسات والشركات في مجال الأمن- وبوجه خاص الأمن الرقمي- وتزوّد هذه الاختصاصات الطلاب بمؤهلات جديدة في الإدارة والأمن الرقمي الخاص بالأنظمة المتصلة بشبكات الإنترَانت والإنترنت؛ وهذا حتى يكونوا قادرين على:

  • تقديم الحلول في مجال هندسة الشبكات.
  • استغلال قدرات الذكاء الاصطناعي في الأمن الرقمي.
  • ضمان سرية واستدامة البيانات على الشبكة داخل الإدارات.
  • التحكم في تدفق المعلومات بين الشبكات الداخلية والإنترنت.
  • مكافحة الفيروسات، وصيانة جدار الحماية، وإجراء اختبارات على الاختراقات الممكنة، والتدخل عن بُعد.

وعلى كلٍ فأن التوسع في استخدام الذكاء الاصطناعي داخل القطاعات الحكومية يؤدي إلى إطلاق العديد من الفرص في جميع أنحاء العالم، يمكن أن تتغير الأشكال التقليدية لتقديم الخدمات واتخاذ مختلف القرارات بسرعة مع إدخال تقنيات الذكاء الاصطناعي في الممارسات الحكومية، وعلى سبيل المثال: بمقدور الحكومات استخدام تقنيات الذكاء الاصطناعي لتحسين جودة الخدمات العامة لتعزيز الثقة بينها وبين المواطنين، وزيادة الكفاءة والفعالية في تقديم الخدمات، كما تستطيع الحكومات ومختلف إداراتها استخدام الذكاء الاصطناعي لتوليد تنبؤات أكثر دقة.

وبهذا الصدد نجد الاتحاد الأوروبي يعمل على توظيف الذكاء الاصطناعي في الإدارة العامة، وهو يدرك أنه يتعيّن على هذه الإدارة في البلدان الأعضاء معالجة بيانات تتزايد يومًا بعد يوم، مما يحتم عليها البحث عن تقنيات مبتكرة تسرّع عملية المعالجة وتحسِّن أداءها، ومن هذه التقنيات يأتي الذكاء الاصطناعي في الصدارة؛ ذلك أنه يؤدي دورًا مهمًّا في التحديث والتحسين الشامل لعمل الإدارة العامة. ومن ناحية أخرى، يُعدّ ضمان شفافية البيانات المعالَجة شرطًا أساسيًّا، وكذلك الأمر بالنسبة إلى صحة تلك البيانات وأمنها؛ لذلك، فإن إمكانات تطبيق الذكاء الاصطناعي في عمليات الإدارة العامة ستكون مقيَّدة بمبدأ الشرعية والحاجة إلى ضمان درجة عالية من موثوقية التقنيات المستخدمة، فضلًا عن الحاجة إلى ضمان احترام حقوق المواطنين في أوروبا وغيرها.

ومع كل ذلك، لا تزال هناك فجوات معرفية مختلفة:

 أولًا: على مدى العقود القليلة الماضية، كان اعتماد الذكاء الاصطناعي في القطاع العام أبطأ منه في القطاع الخاص؛ ونتيجة لذلك، أصبح الاهتمام باستخدام الذكاء الاصطناعي في الإدارات الحكومية أكثر حداثة. من المهم أن نشير إلى أنه من الصعب نسخ ممارسات الذكاء الاصطناعي وإستراتيجيات التحوّل الرقمي من القطاع الخاص مباشرة إلى القطاع العام؛ نظرًا للاختلافات الموجودة بين القطاعين ولخصوصيات كل منهما.

 ثانيًا: أصبحت أنظمة الذكاء الاصطناعي أكثر تعقيدًا وأقل قابلية للتنبؤ بها، وليس من الواضح بالنسبة لمعظم الحكومات، كيف يؤثر ذلك على الحوْكمة؟ ومن الناحية العملية، لا تلمّ معظم الحكومات بالآثار المتعددة الأوجه للحوْكمة العامة الناتجة عن استخدام الذكاء الاصطناعي في أجهزة الحكومة، تمثّل هذه الفجوة المعرفية حاجزًا إنمائيًّا أمام العديد من الحكومات بالنظر إلى الآثار: المجتمعية، والاقتصادية، والسياسية، والأخلاقية لهذه التحوّلات في الذكاء الاصطناعي.

ثالثًا: الكثير من أبحاث الذكاء الاصطناعي الحالية ذات طابع تقني، وتتدارس مشاكل وحلول تكنولوجية محدَّدة في مجال علم الحاسوب. وفي ذات الوقت، توجد العديد من الدراسات المتعلقة باستخدام الذكاء الاصطناعي في الإدارات الحكومية، وعلاوة على ذلك، هناك نقص في الإجماع حول كيفية التعامل مع تحديات الذكاء الاصطناعي المرتبطة بالقطاع العام.

والجدير بالملاحظة أن تطبيقات الذكاء الاصطناعي -في شكل التعلم الآلي- قد دخلت بقوة في مجال الإدارة العامة، واتخذت العديد من السبل، بما في ذلك استخدام روبوتات المحادثة في أنظمة مشاركة المواطنين، فضلًا عن تكامل الأنظمة التفاعلية الذكية التي تجيب عن الاستفسارات المطروحة، ويتم الآن استخدام الذكاء الاصطناعي في الإدارات التي تشرف على السلامة العامة في مجالات مثل: التحليل التنبؤي للجريمة والوقاية منها.

وفيما يخص فقدان مناصب الشغل بسبب انتشار استعمال الذكاء الاصطناعي، يتوقع بعض الخبراء الاقتصاديين أن ذلك سيؤدي إلى حدوث اضطراب كبير في القوى العاملة بحلول عام 2050، وهذا في الوقت الذي يزعم فيه آخرون أنه سيتم إنشاء وظائف جديدة بديلة تعوّض معظم الوظائف المندثرة، فليس هناك تهديدًا للوظائف، إذ نحن الآن نعيش عهد الثورة الصناعية الرّابعة، والكثيرُ من الوظائف ستتولاها الآلة، لاسيما الأعمال التي تتّسم مهامها بالتكرار والروتينيّة الشّاقة للبشر، وستظل وظائف أخرى لا يمكن للآلة القيام بها، وسیُكلف الإنسان بها، وستظهر بفضل الآلة وظائف جديدة لم تكن في الحسبان.

وعلى سبيل المثال: يعتقد المتتبعون أن هذا التغيير سيمسّ الوظائف الإداريّة والتقنيّة (تتولى الآلة المهام الروتينية كاستخراج الوثائق لطالبيها، بينما يتولى الإنسان المراقبة والمتابعة والتواصل مع المواطنين)، وكذا المكتبات (تتولى الآلة مهام الأرشفة المختلفة والإعارة، بينما يتولى الإنسان المراقبة)، وأيضًا الترجمة (الآلة تترجم بينما يقوم الإنسان بمراجعة الترجمة).

ومن المنتظر أن يغيّر الذكاء الاصطناعي الإدارة العامة في جميع المجالات. فعلى مدار العقود المقبلة، سيتخذ المشرّعون وكبار المشرفين على الإدارات العامة قرارات بالغة الأهمية بشأن دور الذكاء الاصطناعي في المجتمع؛ ولإنجاح العملية، من الضروري أن توفر لهم السلطات العليا في كل بلد الأدوات اللازمة للقيام بذلك.

من المهم أن نشير إلى أن البحوث الأكاديمية تُظهر أن هناك أسئلة عديدة لازالت بدون إجابة حول الجانب الأخلاقي والخصوصيات والآثار القانونية لهذه التقنيات؛ ولذا دعى باحثو الذكاء الاصطناعي إلى مناقشات متعددة التخصصات حول هذه الموضوعات.

الخاتمة :

ينبغي أن يدرك كبار المسؤولين في الإدارة القدرات الهائلة للذكاء الاصطناعي في تسيير الشؤون الإدارية وفي ضمان أمن معلوماتها من الاختراقات. وفي ذات الوقت، يجب عليهم إدراك القيود المتعلقة باستعمال هذه التقنية، فالخبراء يرون أن الوقت قد حان لإيلاء المزيد من الاهتمام للذكاء الاصطناعي وتوظيفه في عدة مجالات، أبرزها مجال الأمن الرقمي في الإدارة، ويشير هؤلاء الخبراء إلى أنه لا ينبغي ترك هذا المجال الحيوي للعلماء والمبرمجين والمهندسين وحدهم، بل لا بد أن يكون لرجل الإدارة رأي في اتخاذ القرار عندما يتعلق الأمر بالتعامل مع الذكاء الاصطناعي، وحتى يتحقق ذلك فلا بد من نشر هذه الثقافة التقنية تدريجيًّا في الأوساط الإدارية.

بعض المراجع:

  1. Aiken M. (2017). The Cyber Effect, London : John Murray Press.
  2. Auclert F. (2020, July 20) “Le Dangereux Malware Mirai Renaît de ses Cendres. Futura-sciences”.
  3. Chishti S. (2020). The AI Book: The Artificial Intelligence Handbook for Investors, Entrepreneurs and Fintech Visionaries, New Jersey, Wiley.
  4. Capurro R. (2020) “The Age of Artificial Intelligences: A Personal Reflection, AI, Ethics and Society”. International Review of Information Ethics (IRIE).
  5. Hust A. (2020, September 8). “Use Cases for AI and ML in Cybersecurity. Information-Age”.
  6. Kempf O. (2015). Introduction à la Cyberstratégie, Paris : Economica.
  7. Loiseau H., Ventre D. & Aden H. (2020). Cybersecurity in Humanities and Social Sciences: A Research Methods Approach, New Jersey : Wiley-ISTE.
  8. Manyika J. (2022). Getting AI Right: Introductory Notes on AI & Society, Daedalus. 151 (2).
  9. Shark  A. R. and Shropshire A. (2019). “Artificial Intelligence and the Teaching of Public Policy and Administration”. Artificial intelligence and its impact on public administration, National Academy of Public Administration, USA.
  10. Zuiderwijk A., Yu-Che Chen Y.-C. & Salem F.  (2021). “Implications of the Use of Artificial Intelligence in Public Governance: A Systematic Literature Review and a Research Agenda”. Government Information Quarterly, 38, 3.
اظهر المزيد

د ابوبكر خالد سعد الله

استاذ دكتور بالمدرسة العليا للأستاذة (قسم الرياضيات) بالجزائر

مقالات ذات صلة

زر الذهاب إلى الأعلى