Skip to main content

حوكمة الذكاء الأصطناعي و التقنيات الناشئة

المنظمة العربية لتكنولوجيا الاتصالات والتقنية المركز الليبي للدراسات الاستراتيجية – مركز الإتصال الحكومي – UNDP

موضوع الجلسة

كانت الجلسة الثانية من المنتدى بعنوان/ حوكمة الذكاء الاصطناعي والتقنيات الناشئة، وتتضمن كل من:

  • الإستراتيجيات العربية الموحدة للذكاء الاصطناعي.
  • الميثاق العربي لأخلاقيات الذكاء الاصطناعي.
  • خارطة الطريق للبرنامج الوطني للذكاء الاصطناعي والتحول الرقمي.
  • أ. حامد الهوني

ضيوف الجلسة

  • عبد القادر الزليتني – الهيئة العامة للاتصالات والمعلوماتية
  • إبراهيم جبارة – المؤسسة الليبية للتقنية
  • محمد شلابي – الهيئة العامة لأمن وسلامة المعلومات

الهيئة العامة للاتصالات والمعلوماتية الليبية أعلنت في 17 مايو 2024 عن إطلاق السياسة الوطنية للذكاء الاصطناعي، بالتزامن مع يوم الاتصالات والمجتمع المعلوماتي. تهدف هذه السياسة إلى اعتماد الذكاء الاصطناعي في قطاعات الدولة المختلفة على نحو مسؤول وأخلاقي.

أبرز نقاط السياسة هي وضع أُطر أخلاقية ومعايير شفافية وعدالة وحماية البيانات، وتحفيز الاستثمار في البحث والتطوير والابتكار في هذا المجال، وبناء البنية التحتية الرقمية اللازمة، مثل شبكات إنترنت سريعة والبيانات الحكومية المفتوحة، وتنمية القدرات بدمج الذكاء الاصطناعي في المناهج التعليمية وبرامج التدريب الوطنية.

وفي أغسطس 2023م، تأسست لجنة الذكاء الاصطناعي تحت وزارة الاقتصاد والتجارة في طرابلس، لتعمل على تطوير نماذج استخدام الذكاء الاصطناعي؛ لتحسين الأداء الاقتصادي المؤسسي، وتعزيز التعاون بين القطاعات التقنية الحكومية والخاصة.

لقد شاركت ليبيا في الاجتماع الثامن لفريق العمل العربي للذكاء الاصطناعي في القاهرة (27–28 نوفمبر 2024م)، فساهمت في صياغة الرؤية الإستراتيجية العربية المشتركة، وشاركت في الورشة الخاصة بمشروع ميثاق أخلاقيات الذكاء الاصطناعي العربي أيضًا.

أصدرت الهيئة قرارات تنظيمية عدة في 2024م؛ بهدف تنظيم نشاطات خدمات الأمن السيبراني، ومع أن هذه القرارات لا ترتبط مباشرة بالذكاء الاصطناعي، فإنها تؤسس لإطار تنظيمي محكم يُهيئ بيئة مناسبة لاعتماد حلول الذكاء الاصطناعي في خدمات الأمن السيبراني.

حتى مع هذا التقدم، لا تزال ليبيا في مراحلها الأولى من تطوير التشريعات المتخصصة في الذكاء الاصطناعي، مع غياب هيئة مستقلة لحماية البيانات أو قانون حماية بيانات شامل إلى الآن.

المؤسسة الليبية للتقنية هي جزء من البرنامج الوطني الليبي للذكاء الاصطناعي، وهي تولي اهتمامًا كبيرًا لتعزيز الاستخدام الأخلاقي والمسؤول للتقنية في المجتمع.

يستند الميثاق الخاص بالبرنامج الوطني الليبي للذكاء الاصطناعي إلى المبادئ والتوصيات الموجهة من الميثاق العربي المبني على معايير اليونيسكو، وقد وضع الميثاق إطارًا واضحًا لضمان الاستخدام الأمثل للتقنية، بما يخدم مصلحة المستخدم الليبي، وبما يجنب سوء الاستخدام والانحرافات الأخلاقية. في نفس الوقت، يسعى العالم إلى توجيه الاستخدام المدني والأخلاقي للتقنية عامة، والذكاء الاصطناعي على نحو خاص، وتنظيمه للحفاظ على القيم الإنسانية، وضمان استدامة التطور التقني بطريقة واعية ومسؤولة.

لكل دولة ظروفها ومتطلباتها التي يجب أن تؤخذ في الاعتبار عند صياغة ميثاق استعمال الذكاء الاصطناعي، وفي نفس الوقت يكون الميثاق قائمًا على المبادئ العامة التي تحددها المنظمات الدولية، فيما توضع حدود عريضة على مستوى العالم كله لتنظيم الاستخدام المسؤول للذكاء الاصطناعي على مستوى العالم.

إن هذا التوازن بين التنظيم المحلي والعالمي ضروري؛ لضمان حماية الحقوق، وتحقيق الفوائد المرجوة من تقنيات الذكاء الاصطناعي على نحو مسؤول، وبالتنسيق مع كل الأطراف المعنية.

يفرض الوضع الحالي وضع سياسات تنظم هذا الشأن، والهيئة تقدم جهودًا متميزة في تطوير مجال الذكاء الاصطناعي وتنظيمه، بفرض سياسات واضحة تنظم هذا القطاع وتوجه استخدامه. وفي إطار هذه الجهود، أعلنت الهيئة مؤخرًا عن إطلاق أول مساعد ذكاء اصطناعي خاص بها، سُمّي (نيسا AI)، وهو يوافق الإستراتيجية الوطنية لأمن وسلامة المعلومات.

يُعد هذا النموذج (نيسا AI) تطبيقًا محليًّا يساعد في الإجابة عن الاستفسارات عن الإستراتيجيات والسياسات الوطنية المتعلقة بالأمن السيبراني، على سبيل المثال: يمكن للزوار من خارج طرابلس الاستفسار عن المعايير المطبقة في بيئة العمل داخل الهيئة الوطنية لأمن وسلامة المعلومات، ومقارنة ذلك بما هو موجود في مدنهم ومؤسساتهم، ما يعد نقلة نوعية في تقديم هذه الخدمات. والأهم أن أي شخص يمكنه إنشاء حساب وتجربة هذا النموذج بسهولة، مع إمكانية تلقي مقترحات وتوصيات لتحسين (نيسا AI)، ما يعزز من تفاعل المجتمع مع مبادرات الهيئة.

ما يميز نموذج الذكاء الاصطناعي (نيسا AI) عن النماذج المفتوحة الأخرى هو أنه مدرب على قاعدة المعرفة الخاصة بالهيئة فقط، ولا يمنح معلومات خارجية، لذا فهو يضمن دقة عالية في الإجابات، ويقدم تفاصيل دقيقة تتعلق بالسياسات والمعايير الداخلية، ما يجعله أداة فعّالة في دعم الأمن السيبراني وتعزيز الوعي والمعرفة داخل الهيئة وخارجها.

شهدت رحلة تطوير أداء نموذج الذكاء الاصطناعي (نيسا AI) الكثير من الخطوات المهمة. بدأت الهيئة باستخدام نماذج مفتوحة المصدر بدلًا من بناء النموذج من الصفر، فاستعان المطورون بنماذج مفتوحة المصدر بما يناسب احتياجات العمل. من بين النماذج المختارة كان نموذج قيما 3 من جوجل، وذلك لأنه نموذج استدلالي يُجري عملية التفكير ويبحث ويدقق قبل أن يقدم الإجابة، مما يضمن دقة المعلومات التي يوفرها.

أما فيما يخص مصدر البيانات، فقد حوّل المطورون البيانات إلى ملفات يمكن للجهاز قراءتها بسهولة، للمساعدة في عملية التدريب. استمرت مرحلة التدريب مدة أربعة أشهر تقريبًا.

النموذج في مرحلة الإطلاق الآن، وهو متاح حاليًّا ليجربه الجمهور، وليتمكن المستخدمون من الاستفادة من قدراته.

لا تتوفر إستراتيجية واضحة لاستعمال الذكاء الاصطناعي في القطاع العام في ليبيا في الوقت الحالي، وإذا كانت موجودة، فستعمل الهيئة على تطبيقها، علمًا بأن معظم الشركات والمؤسسات حول العالم بدأت بالفعل في تطبيق مساعدات الذكاء الاصطناعي؛ لتحسين عملياتها وتعزيز كفاءتها.

من الفوائد المهمة لاستخدام تقنيات الذكاء الاصطناعي حماية البيانات الداخلية، فالذكاء الاصطناعي يعزز الأمان ويحافظ على المعلومات الحساسة، ثم إن استخدام الذكاء الاصطناعي المحلي في المؤسسات المحلية يساعد على الحفاظ على البيانات من التسريب، ويحدّ من الاعتماد على أنظمة خارجية قد تكون أكثر عرضة للمخاطر الأمنية والهجمات السيبرانية.

لا تعارض بين الإستراتيجية العربية الموحدة والإستراتيجيات المحلية فيما يخص تنظيم استخدام الذكاء الاصطناعي. الإستراتيجية العربية الموحدة قيد الإعداد حاليًّا بعد عقد ورش عمل وإعداد أوراق علمية تدعمها. أمّا ميثاق أخلاقيات الذكاء الاصطناعي فهو يتبع نفس النهج، مع مراعاة الواقع الديني والثقافي والاجتماعي في ليبيا عند تطبيق التجارب العالمية فيها.

إضافة إلى ذلك، تسعى كل دولة لإعداد إستراتيجيتها الخاصة، على غرار الإستراتيجية العربية، لتناسب ظروفها واحتياجاتها المحلية.

ويُعد تنظيم استخدام أدوات الذكاء الاصطناعي من الأمور المهمة التي تتطلب وضع إطار قانوني واضح. وفي هذا السياق، يجري العمل حاليًّا على تطبيق الإستراتيجية الموضوعة، مع وضع عقوبات مناسبة للمتجاوزين. ومع أن الميثاق يتضمن توجيهات عامة، فإن طريقة التنفيذ والالتزام بها يعتمد على كل دولة على حدة، وفق ظروفها واحتياجاتها المحلية.

لقد وضع الاتحاد الأوروبي قانونًا رادعًا في عام 2023م، وهو الجهة الوحيدة التي أطلقت قوانين صارمة حتى الآن، وقد صنف الأخطاء المرتبطة باستخدام الذكاء الاصطناعي إلى أربعة أخطار رئيسية. ومع ذلك، ما زالت الحاجة ملحة إلى صياغة لائحة حقيقية وفعّالة تجرم المخالفين وتضع آليات واضحة للمحاسبة، إذ ليس من رادع قانوني أو لوائح تفرض العقوبات على المستخدمين المخالفين حتى هذه اللحظة.

وفيما يخص المصادر التي تستخدم الذكاء الاصطناعي، فقد حدد الاتحاد الأوروبي الجهات المعنية، وهي المطورون والمستخدمون. تشير البيانات إلى أن 13% من الهجمات السيبرانية الأخيرة كانت مصدرها تقنية الذكاء الاصطناعي، ما يسلط الضوء على أهمية تنظيم استخدامها تنظيمًا صارمًا. من ناحية أخرى، نجحت المؤسسات التي تعتمد على الذكاء الاصطناعي في تحسين أدائها بنسبة تصل إلى 9%، ما يدل على الفوائد الكبيرة التي يمكن تحقيقها عند الاستخدام المسؤول والمنظم لهذه التقنيات.

من الضروري وضع إطار قانوني شامل ينظم عمل الذكاء الاصطناعي في ليبيا، بالتعاون مع الدول العربية والمنظمات الدولية، بهدف حماية المجتمع من التبعيات المحتملة لهذه التقنية. يتطلب ذلك إعداد قانون خاص بالذكاء الاصطناعي يتضمن حماية البيانات، وحقوق الملكية الفكرية، وأطر الأمان، إضافة إلى نظام تراخيص واضح يحدد الشروط والمتطلبات لاستخدام التقنيات أو تطويرها، لضمان الالتزام بالمعايير الدولية والمحلية.

إن التعاون والشراكة مع جميع أصحاب المصلحة، بما في ذلك الحكومة، والقطاع الخاص، والمجتمع المدني، والجامعات، ضروري لضمان أن يكون العمل منسقًا وواقعيًّا، ويخدم الأهداف الوطنية بطريقة سليمة.

يتمثل تصور المجتمع المدني للذكاء الاصطناعي في وضع إطار تنظيمي وتراخيص معينة لضمان استخدامه استخدامًا آمنًا ومسؤولًا، إذ يعد المجتمع أن الذكاء الاصطناعي أكثر تعقيدًا من الأمن السيبراني وأكثر حساسية، ما يتطلب اهتمامًا خاصًّا واحتياطات إضافية.

يلاحظ أن بعض أنظمة الذكاء الاصطناعي تعمل في أماكن معينة دون علم أصحاب القرار، ما يثير مخاوف بشأن الشفافية والسيطرة. ومن ثم لا يمكن البدء بأي نشاط مرتبط بالذكاء الاصطناعي إلا تحت الرقابة المباشرة وتحت أنظار القانونيين؛ لضمان الالتزام بالأطر الأخلاقية والقانونية، وحماية حقوق المستخدمين والمصالح العامة.

تتطور التقنية بسرعة كبيرة، وغالبًا ما يكون القانون غير مواكبًا لهذه التطورات، ما ينتج فجوات تنظيمية ومخاطر محتملة. الغرض من الحوكمة والسياسات والتشريعات هو تقليل هذه المخاطر وضمان الاستخدام المسؤول للتقنية، لا سيما مع تطور الذكاء الاصطناعي.

أما فيما يخص استعمال الذكاء الاصطناعي لأغراض أكاديمية أو بحثية، فأحد المقترحات أن يكون ذلك عن طريق منصة إلكترونية تسهل عملية الترخيص، بهدف تسريع الإجراءات وعدم تقييد الطلاب والأكاديميين بالبيروقراطية كما يُعامل أصحاب الأعمال والشركات، مع الحفاظ على المعايير والضوابط اللازمة.

المهم في كل ذلك هو ضمان الأمان، والتحقق من أن استخدام الذكاء الاصطناعي يكون في المجال المناسب، وأن يكون منظمًا وموثوقًا، ويخدم الأهداف على نحو مسؤول ومتزن.

إنّ وجود حظر على استعمال بعض التقنيات في ليبيا يمثل تحديًا، لكن لا يجعل الاستفادة من تقنيات الذكاء الاصطناعي مستحيلًا. يمكن العمل على تجاوز ذلك بواسطة إستراتيجيات متعددة، منها:

  • تحديث القوانين والسياسات: كما حدث سابقًا مع حظر بعض التقنيات، يمكن إصدار قوانين مرنة تسمح باستيراد التقنيات الضرورية أو تطويرها، مع وضع ضوابط صارمة لضمان الامتثال والمعايير.
  • إنشاء منصات تواصل مع المصنّعين: بأن تتواصل الهيئة المختصة مع المنتجين والمصنعين الدوليين عن طريق جهة تنسيقية، لتسهيل استيراد التقنيات أو تطوير بدائل محلية.
  • دور المجتمع المدني: للمجتمع المدني دور مهم في فتح مجال استيراد المعدات والأدوات اللازمة، بإنشاء مؤسسات أو منظمات معترف بها، تعمل على دعم صناعة الذكاء الاصطناعي محليًّا، وتوفير أدوات وتقنيات بديلة.
  • السياسات المستقبلية: من المتوقع أن تتطور السياسات الإستراتيجيات في ليبيا، مثل ما حدث في الإمارات من إنشاء هيئات خاصة بالذكاء الاصطناعي، لضبط عمليات الاستيراد والرقابة على التقنية.
  • العمل ضمن إطار دولي: يمكن الاعتماد على التعاون مع منظمات دولية أو اتفاقيات تسهّل وصول التقنيات بطريقة قانونية وآمنة، مع الالتزام بالمعايير الدولية.

باختصار… يمكن بناء منظومة مرنة ومتطورة حتى مع الحظر، عن طريق التعاون بين المؤسسات والمجتمع المدني والدعم الحكومي، لخلق بيئة مناسبة لاستيراد تقنيات الذكاء الاصطناعي وتطويرها في ليبيا.

  1. صياغة قانون وطني شامل للذكاء الاصطناعي يشمل حماية البيانات الشخصية، وحقوق الملكية الفكرية، وأطر الأمان، مع نظام تراخيص واضح لاستخدام وتطوير التقنيات.
  2. وضع لوائح تنظيمية للعقوبات على الاستخدام غير المسؤول أو غير الأخلاقي لتقنيات الذكاء الاصطناعي، لضمان الالتزام بالمعايير الأخلاقية والقانونية.
  3. إنشاء هيئة وطنية مستقلة مختصة بحوكمة الذكاء الاصطناعي لتنظيم استخدام التقنية، وتطبيق التشريعات، ومتابعة الالتزام بها.
  4. تطوير الإستراتيجيات الوطنية بما يتوافق مع المبادئ الدولية، مع مراعاة الظروف المحلية، لضمان الاستخدام المسؤول والمنظم للتقنية.
  5. تطوير البنية التحتية الرقمية من شبكات إنترنت عالية السرعة، ومنصات بيانات حكومية مفتوحة، وبيئات رقمية آمنة ومحمية لدعم تطبيقات الذكاء الاصطناعي.
  6. تحفيز الابتكار والبحث العلمي بتمويل المشاريع الوطنية، وتوفير منصة إلكترونية للترخيص الأكاديمي لاستخدام الذكاء الاصطناعي، مع تسهيل الإجراءات للباحثين والطلاب.
  7. تعزيز التعاون الإقليمي والدولي مع المنظمات والجهات المصنعة لتسهيل الوصول إلى التقنيات والخبرات العالمية، والمشاركة في المبادرات الدولية لصياغة معايير موحدة وملزمة.
  8. إشراك المجتمع المدني والقطاع الخاص في صياغة السياسات، وتطوير منظومة الذكاء الاصطناعي، وتعزيز الشراكات بين جميع الأطراف المعنية.
  9. ضبط استخدام تقنيات الذكاء الاصطناعي في المؤسسات عبر الرقابة القانونية والتقنية، لضمان الشفافية، والمساءلة، والامتثال للأطر الأخلاقية.
  10. تطوير منظومة تراخيص إلكترونية وميسرة لاستخدام الذكاء الاصطناعي، خاصة في القطاعات الأكاديمية والبحثية، لضمان سرعة الإجراءات وجودة الترخيص.