العُمانية: تتسارع في الوقت الحالي تقنيات الذّكاء الاصطناعي في كل مجال من مجالات الحياة، وبدأنا فعليًّا نلمس تأثيراتها الإيجابية إلا أنّ هناك بعض المخاوف الأخلاقية المرتبطة بهذا التطور وعدم القدرة على السيطرة عليه.
وأكّد عددٌ من المعنيين والمختصّين في الذّكاء الاصطناعي لوكالة الأنباء العُمانية على ضرورة إيجاد حوكمة واضحة تتضمن عددًا من المبادئ والسياسات والإجراءات الواجب اتباعها بهدف استخدام الذّكاء الاصطناعي بطرق آمنة ومسؤولة وشفافة تحدُّ من الآثار السلبية التي قد يُسببها. وقال حسن بن فدا حسين اللواتي رئيس البرنامج الوطني للذّكاء الاصطناعي والتقنيات المتقدمة بوزارة النقل والاتصالات وتقنية المعلومات إنّه يجب على المؤسسات الحكومية والخاصة بمختلف قطاعاتها السعي إلى الاستفادة من تقنيات الذّكاء الاصطناعي التي أثبتت أهميتها في مختلف مجالات الحياة من خلال المشاركة في تنفيذ اختبارات ميدانية في مجال تطوير تطبيقات الذّكاء الاصطناعي أو غيرها من التقنيات الحديثة وعقد لقاءات دورية لتحديد الصعوبات التشغيلية وسُبل معالجتها.
ودعا إلى ضرورة دعم وتوجيه عدد من المؤسسات المحلية لنشر بياناتها كبيانات مفتوحة حسب المعايير الدولية لكون البيانات عنصرًا رئيسًا يمْكن من خلالها المؤسسات والأفراد تحليلها لإيجاد فرص استثمارية جديدة بالإضافة إلى جذب الاستثمارات الخارجية لتفعيل مسارات الذّكاء الاصطناعي والتقنيات الحديثة.
تقنيات الذّكاء الاصطناعي
وأشار إلى أنّ وزارة النقل والاتصالات وتقنية المعلومات ممثلةً بالبرنامج الوطني للذّكاء الاصطناعي والتقنيات المتقدمة تسعى للاستفادة من تقنيات الذّكاء الاصطناعي حيث بدأت بعدة تجارب منها الإطلاق الميداني لمشروع توصيل الطرود بالدرونز في منطقة شرق مسقط بالقرب من منطقة البستان وتنفيذ المشروع التجريبي لرقمنة المستندات في قطاع النقل بالتعاون مع شركة Schlumberger إضافة إلى الإعداد لبدء المرحلة التجريبية لمشروع التفتيش الميداني للمحاجر لخدمة قطاع التعدين.
وأضاف أنّ الوزارة عملت على إقامة بعض اللقاءات والندوات في العام الحالي ومنها ورشة عمل حول استخدام الجيل الجديد من تقنيات الذّكاء الاصطناعي “الشات جي بي تي” والتنسيق مع الجهات ذات الاختصاص في التعليم والإعلام والشؤون القانونية والثقافية للتعاطي مع هذه التقنيات وتهيئة البيئة المناسبة لها محليًّا في مختلف النواحي الأساسية مثل التشريعات والقوانين وحقوق ملكية الأفراد والمؤسسات وشبكات الاتصالات والشؤون الإعلامية والثقافية. وأفاد بأنّه على المؤسسات الحكومية والخاصة إعلام المهتمين من أفراد المجتمع بالمستجدات وكيفية عمل هذه التطبيقات عمليًّا بتجارب من القطاعات الاقتصادية والخدمية محليًّا أو عالميًّا، وإشراك المؤسسات الصغيرة والمتوسطة وطلبة التعليم العالي والمدارس بشكل خاص من خلال إقامة المسابقات والأنشطة العملية لتجربة تطبيقات التقنيات الحديثة والذّكاء الاصطناعي.
وأكّد على أنّ الخصوصية والأمان في استخدامات تطبيقات الذّكاء الاصطناعي تُشكّلان جزءًا مهمًا مع التطوُّر التكنولوجي المتسارع، وتوجد جهود كبيرة من المؤسسات ذات العلاقة بالأمن السيبراني بسلطنة عُمان وهي قائمة بدورها بشكل ملحوظ في الوعي العام وفي توفير الحماية والأمن للفضاء السيبراني العُماني عمومًا ولا يخفى على الجميع مكانة سلطنة عُمان وترتيبها إقليميًّا في هذا الشأن.
وأشار إلى أنّه على المستويين الفردي والمجتمعي، فإن على الجميع القيام بدورهم في الحفاظ على بياناتهم الشخصية عند استخدام مختلف تطبيقات وتقنيات المعلومات والاتصالات عمومًا ومنها تطبيقات الذّكاء الاصطناعي من خلال استخدام البرامج المعتمدة التي توفر الأمن والخصوصية وتغليب الحذر عند التعامل مع الآخرين في الفضاء الإلكتروني عمومًا.
الاستخدام الآمن والأخلاقي للتقنية
وحول الخطوات اللازمة والواجب اتخاذها لضمان أن تستخدم تقنيات الذّكاء الاصطناعي بطريقة أخلاقية ومسؤولة قال: إنّ وزارة النقل والاتصالات وتقنية المعلومات أصدرت في عام ٢٠٢١م سياسة استخدامات الذّكاء الاصطناعي التي تركز على الاستخدام الآمن والأخلاقي للتقنية، حيث يتكامل مع مستند البرنامج التنفيذي للذّكاء الاصطناعي والتقنيات المتقدمة الذي أصدرته الوزارة في أكتوبر ٢٠٢٢م كاستراتيجية على المستوى الوطني وخارطة طريق تشمل مشروعات تنفيذية على مدى الأعوام القادمة.
وأكّد على أهمية تعزيز التعاون الدولي في مجال الذّكاء الاصطناعي وتطوير معايير دولية لتطبيقاته لأن ذلك سيسهم في تمكين الحكومة من تعزيز التعاون الدولي في مجال الذّكاء الاصطناعي ورفع ترتيب سلطنة عُمان في جاهزيتها لتبني استخدامات الذّكاء الاصطناعي عالميًّا. وأفاد بأنّه يمكن تحقيق التعاون الدولي من خلال توفير البيئة الملائمة والحوافز الملموسة لاستقطاب رؤوس الأموال والاستثمارات الخارجية إلى سلطنة عُمان. ورأى أنّ تحديث التشريعات والقوانين لاستضافة الجيل الجديد من تقنيات وتطبيقات الذّكاء الاصطناعي سيُمكّن الشركات الناشئة والمؤسسات الأخرى من تبني هذه الممارسات والتطبيقات والاستفادة منها للإسهام في جذب المؤسسات والمنظمات الدولية للتعاون مع سلطنة عُمان.
من جانبه قال معمّر بن علي التوبي أكاديمي وباحث متخصّص في الذّكاء الاصطناعي إنّ الذّكاء الاصطناعي بات اليوم حديث الساعة، والقضية الأكثر تداولًا بل والأكثر قلقًا نظرًا لمخاطرها المتوقعة التي أكّد على وجودها وتسارعها أحد أبرز خبراء الذّكاء الاصطناعي “جيفري هنتون” الذي يُعرف بعراب الذّكاء الاصطناعي.
وأضاف أنّ مخاطر الذّكاء الاصطناعي تكمن في كونه بات متاحًا ومفتوحًا للجميع دون أيّ قيود وضوابط، وهذا ما أثار حفيظة وقلق خبراء الذّكاء الاصطناعي في توفر تقنية ذكية يتطور ذكاؤها بشكل متسارع دون تفعيل حوكمة واضحة للذّكاء الاصطناعي.
ووضح أنّ الحوكمة المقصودة هنا هي القوانين والتشريعات والأخلاقيات التي ينبغي أنّ ترافق ظهور الذّكاء الاصطناعي وممارسته المفتوحة؛ كون هذه التقنية الذكية حالها حال أيّ تقنيات حديثة الظهور تمتلك قدرات ذكاء تفوق البشر في بعض المجالات المعينة، ومستقبلًا يعتقد أنّها بعموميتها ستفوقه ذكاءً، وهذا ما يمكن أنْ يجعل من هذه التقنية متمردة ولا نملك القدرة على التحكم بها.
حماية حياة الإنسان وخصوصياته
وذكر أنّ الحوكمة بحسب خبراء الذّكاء الاصطناعي هي أحد أهم الحلول التي ينبغي أنْ تُرافق مسيرة هذه التقنية بحيث تفرض الحكومات شروطها على منتجي الذّكاء الاصطناعي وعلى المستخدمين عبر قوانين وتشريعات تُحدد فيها أخلاقيات استعمال الذّكاء الاصطناعي وضوابطه التي تضمن حماية حياة الإنسان وخصوصياته، وفرض العقوبات للمخالفين لضمان سياسة القانون والردع.
وأكّد على أنّ الحوكمة تحتاج إلى صياغة دقيقة وتنفيذ صارم، بمشاركة خبراء الذّكاء الاصطناعي مع خبراء القانون بل والفلاسفة “مجتمعين معًا” هم من يملكون القدرة على صياغة هذه الحوكمة، إلى جانب صنّاع القرار في الحكومات من أصحاب القرار والتنفيذ.
وفي السياق ذاته شدّدت هالة بنت هارون الزدجالية خبيرة وباحثة في مجال الحوكمة والالتزام بقطاع تقنية المعلومات والاتصالات على ضرورة حوكمة الذّكاء الاصطناعي لتوجيه استخدام وتطوير التكنولوجيا وتحقيق السلامة والأمان، وضمان العدالة والشفافية والمسؤولية، ومعالجة التحديات الاجتماعية والاقتصادية من خلال وضع الحكومات والتشريعات والسياسات الأطر والمبادئ التي توجه استخدام وتطوير التطبيقات والأنظمة المرتبطة بالذّكاء الاصطناعي. وأكّدت على أهمية أن تقوم الحكومات بدور رئيس في تنظيم استخدامات الذّكاء الاصطناعي نظرًا للتأثيرات الاجتماعية والاقتصادية والأخلاقية التي يمكن أن يحملها الذّكاء الاصطناعي. وأشارت إلى أنّ الذّكاء الاصطناعي يتضمن فرصًا عديدة في تعزيز التعليم وتحسين الإنتاجية والكفاءة في العديد من الصناعات والخدمات والعمليات التجارية ومع ذلك يكمن هناك العديد من التحدّيات فيما يتعلق بحماية الخصوصية والحفاظ على سرية البيانات الشخصية. وبينت على أهمية الحوكمة لتأطير استخدامات الذّكاء الاصطناعي لضمان استغلال الذّكاء الاصطناعي بشكل مسؤول وتوجيهه بما يحقق المصلحة العامة للمؤسسات والأفراد والمجتمع.
ورأت أنّ التشريعات والقوانين ستحدّ من مخاطر الاختراقات الأمنية وسوء الاستخدام والتمييز وانتهاك الخصوصية، ويمكن للقوانين أن توفر إطارًا للمساءلة والشفافية في استخدام الذّكاء الاصطناعي، مما يُسهم في بناء الثقة بالذّكاء الاصطناعي كما يتضح ذلك من واقع تجارب عدة دول في حوكمة الذّكاء الاصطناعي.
وضع إطار تنظيمي وتشريعات
وأفادت بأنّ هناك جهودًا كبيرة مبذولة لوضع إطار تنظيمي وتشريعات مناسبة لهذه التكنولوجيا المتقدمة مستشهدةً بدول الاتحاد الأوروبي التي وضعت مبادئ الذّكاء الاصطناعي الأخلاقية التي تهدف إلى تعزيز قيم وأخلاقيات الذّكاء الاصطناعي، بالإضافة إلى “مبادئ الحوكمة الذكية” التي توجه استخدامات التكنولوجيا وتعزز الشفافية والمساءلة.
وأفادت بأنّ الصين تبنت أيضًا قانونًا وإطارًا للذّكاء الاصطناعي يهدف إلى تطوير قطاع الذّكاء الاصطناعي وتعزيز البحث والابتكار، إلى جانب المبادئ الأخلاقية وطرق معالجة التحديات الاجتماعية والقانونية المرتبطة بالذّكاء الاصطناعي. وذكرت أنّ سلطنة عُمان قامت بإصدار سياسة استخدامات أنظمة الذّكاء الاصطناعي وقانون حماية البيانات الشخصية اللذين يهدفان بشكل رئيس إلى تنظيم استخدام الذّكاء الاصطناعي وتطوير الحلول المبتكرة إلى جانب التركيز على تعزيز التوجيه الأخلاقي والمعايير الأخلاقية في استخدامات الذّكاء الاصطناعي.
ورأت أنه مع كل هذه الجهود إلا أنه يجب على الحكومات النظر إلى مدى قدرة هذه التشريعات والقوانين على التكيف مع التغيرات المتسارعة ومواجهة التحديات الجديدة التي يمكن أن يتسبب فيها الذّكاء الاصطناعي. وقالت إنّ التعامل مع التأثيرات السلبية المتوقعة للذّكاء الاصطناعي يتطلب تعاونًا واسعًا بين الحكومات والشركات والمجتمع والمؤسسات الأكاديمية، كما يتعين على جميع الأطراف العمل معًا للتعرف على التحدّيات المحتملة وتطوير أطر أخلاقية وقوانين ملائمة للتعامل معها.
وأضافت أنّ حوكمة الذّكاء الاصطناعي تتضمن مبادئ عامة تنطبق على مختلف القطاعات مثل التعليم والصحة والتجارة من بينها الشفافية، ويجب أن تكون عمليات التحليل ومصادر البيانات في الذّكاء الاصطناعي واضحة ومفهومة مع ضمان الأمان وحماية البيانات الشخصية وتعزيز العدالة بتجنب التحيزات والتمييز في اتخاذ القرارات بواسطة الذّكاء الاصطناعي.
من جانبه يرى الباحث الاجتماعي مبارك بن خميس الحمداني أنّ موجة الذّكاء الاصطناعي هي مرحلة تاريخية مهمة من إعادة تشكيل علاقة المجتمعات بالبيانات والمعرفة – على وجه التحديد – وهذه العلاقة تنطوي عليها علاقات أخرى تفصيلية منها الأدوار التقليدية التي يمكن أن تؤديها القوى البشرية العاملة في بيئات العمل وجدلية الاستعاضة عنها بتطبيقات الذّكاء الاصطناعي وكذلك الأدوار التقليدية لبيئات التعلم والعاملين فيها. وأضاف أنه لا يمكن النظر إلى هذه المرحلة التاريخية بوصفها خطرًا مطلقًا يُداهم المجتمعات البشرية لطالما أثبتت التحولات التاريخية قدرة المجتمعات الإنسانية على التكيف مع الموجات المعلوماتية المختلفة. ويعتقد بأنّ هناك ٣ عوامل سوف تحسم تكيف المجتمعات مع التأثيرات المتوقعة للذّكاء الاصطناعي على أوجه الحياة الإنسانية والعامل الأول هو سرعة تعلم المنطق التوليدي الذي يشتغل عليه الذّكاء الاصطناعي، فتعلّم منطق الأشياء وكيف تعمل يتيح للمجتمعات البشرية التحكم بمسارات التأثير ومعرفة طريقة مواكبة المستجدات المتلاحقة فيما يتعلق بالذّكاء الاصطناعي.
الحد من الآثار العكسية
وذكر أنّ العامل الآخر هو ترجيح دور “التشريعات التجريبية” على “التشريعات التقليدية”، وفكرة التشريعات التجريبية فكرة ناشئة تعمل عليها بعض الدول وذلك بأن تقر لائحة معينة أو نظام معين لأمد محدود على قطاع محدود أو مجموعة معينة من المجتمع ثم تتيح المجال لاختبار أثر التشريع في التنظيم والحدّ من الآثار السالبة قبل أن يتمّ إقراره بالمطلق.
وأفاد بأنّ هناك دولًا كثيرة أقرت تشريعات تجريبية فيما يتعلق بالسيارات ذاتية القيادة على سبيل المثال وفيما يتعلق بأنظمة العمل عن بُعد ومراقبة الالتزام، مؤكدًا على أنّ الاتجاه نحو التشريعات التجريبية عامل مهم لحصر الآثار المتوقعة وتنظيمها والحد من الآثار العكسية.
ووضّح أنّ العامل الثالث يتمثل في التوظيف ونقصد بها دمج التطبيقات ذات النفع المباشر في نماذج الأعمال والتعلم وتدريب أكبر شريحة ممكنة من المجتمع والفاعلين على دمج تلك التطبيقات وعدم التأخر في حصد منافعها الإيجابية وأنّ هذه العوامل في تقديرنا ستشكل الإطار العام للكيفية التي يمكن أن يؤثر بها موجة الذّكاء الاصطناعي على المجتمعات.
ويرى أنّ موجة الذّكاء الاصطناعي وتطبيقاته يمكن أن تُعزز انحيازين سلوكيين الأول يعرف باسم “انحياز الآلة أو الأتمتة” وهو ميل الفرد/ المجموعة / المجتمع إلى الاعتماد المطلق والموثوقية على ما تصدره الآلة من قرارات وما تُعالجه من بيانات وما تقوم به من عمليات دون النظر إلى العوامل الجانبية الأخرى المؤثرة والمحتملة في السياق البشري والإنساني.
وذكر أنّ الجانب الثاني يُعرف في أدبيات العلوم السلوكية بـ “فقدان الذاكرة الرقمي” وتعتمد مواده في المطلق على منصات البحث واليقين بأننا لسنا في حاجة إلى تذكر معلومات بعينها ما دامت هذه المنصات ستتيح لنا الوصول إليها ومعالجتها وعرضها لنا في ظرف زمني بسيط وموجز وهو ما يولد اتكالية المعرفة لدى الأفراد.
وقال إنّ موجات الذّكاء الاصطناعي وتطبيقاته ستُغير خارطة المهارات والمعارف التي يحتاج إليها الأفراد فالمهارات والمعارف التي كانت تشكل رأس مال بالنسبة للفرد قبل أعوام قد تغدو مهارات لا قيمة لها أو اعتيادية بمرور الوقت وتوليد هذه التطبيقات يغير في خارطة “العدالة المعرفية والمهارية” إن صحت التسمية.
وذكر أنّ الهواجس المحتملة من الذّكاء الاصطناعي تتمحور حول الأمانة المعرفية، وقد تبين بشكل أكبر في بيئات التعلم والمؤسسات الأكاديمية وهناك هاجس آخر يتصل بدفع هذه التطبيقات الأفراد لفقدان الاتصال المجتمعي المباشر.
وأضاف أنّ مواقع التواصل الاجتماعي قلصت حيز التواصل المجتمعي الحسي وأفقدت شرائح واسعة خاصة من الفئات الناشئة الكثير من المهارات الاجتماعية، وأنّ ثورة الذّكاء الاصطناعي من المحتمل أن تُقلص بشكل أكبر حيز هذه المهارات وما يتصل بها من ممارسات وسلوكيات تساعد الفرد على الاتصال والتفاعل في مجموعته الاجتماعية القريبة.