من الجديدة.. تي بي مازيمبي يتوج بلقب عصبة الأبطال الإفريقية للسيدات |
«بسيكولوغ» لحاتم عمور يحصد أزيد من 2.2 مليون مشاهدة في أسبوع فقط |
مدرب الرجاء البيضاوي يتخذ هذا القرار بعد «الديربي البيضاوي» |
بالصور.. تفاقم ظاهرة احتلال الأرصفة بمنطقة «الرحمة» ضواحي الدار البيضاء |
الدار البيضاء.. السلطات المحلية تفكك تجمعا عشوائيا بإقليم مديونة |
ChatGPT..جامعي: احترام الخصوصية الشخصية أصبح أمرا صعبا في ظل انتشار الذكاء الاصطناعي | ||
| ||
مضي التطور التكنولوجي في العشرية الأخيرة نحو السرعة القصوى، فبات ابتكار برامج وتطبيقات وتعتمد على الذكاء الاصطناعي في تزايد مضطرد، وآخر جيل من هذه الابتكارات تطبيق "شات جي بي تي" "Chat GPT" والذي يستخدم تقنية التعلم الآلي والذكاء الاصطناعي، حيث نال اهتماما واسعا على المستوى العالمي بعد أن طرحته شركة "أوبن إيه آي" (OpenAI) في نونبر من سنة 2022. موقع القناة الثانية حاور ضمن فقرة "ثلاثة أسئلة"، أنس أبو الكلام، أستاذ التعليم العالي بجامعة القاضي عياض، مسؤول من شعبة الدفاع السيبريالي ورئيس الجمعية المغربية للثقة الرقمية، حول مدى خطورة الذكاء الاصطناعي على البشرية؟ ثم أهمية تقنين وتنظيم تقنية "Chat GPT"، فضلا عن كيف يمكن التحكم في قوة الذكاء الاصطناعي للاستفادة منه دون القضاء على البشرية؟ نص الحوار.. في البداية، هل يشكل الذكاء الاصطناعي تهديدا للبشرية؟ يستطيع الذكاء الاصطناعي معالجة معلومات أكثر من البشر، لكن هذا الذكاء لا يداني قدرة البشر، على الأقل حاليا، على التفكير بالقياس. ويعتبر هذا النوع من التفكير المنطقي المبني على السبب والنتيجة أعظم قوة للذكاء البشري، لكن وثيرة تطور الذكاء الاصطناعي تنبؤ بإمكانية تفوقه على الانسان في العديد من المجالآت في السنوات القادمة. لذا وجب التفكير في طرق جديدة للتعليم والتركيز على المهارات التي تنطوي على الفكر الإبداعي. تؤكد العديد من الدراسات العلمية الجادة أن كثيرا من الوظائف القائمة حاليا ستختفي في المستقبل، حيث سيكون للأتْتة تأثرٌ جدي على الوضع الوظيفيّ الراهن، حقيقة الأمر أن التكنولوجيا ستوجد وظائف أخرى مختلفة عن تلك التي ستقضي عليها. فكما سيتلاشى كثير من الوظائف الحالية، ستسهم التكنولوجيا بشكل مباشر في إيجاد وظائف جديدة. فثلث الوظائف الجديدة التي نشأت في الولايات المتحدة في الخمس والعشرين سنة الماضية لم تكن موجودة من قبل في مجالات تتضمن: تطوير تكنولوجيا المعلومات، وتصنيع الأجهزة، وإنشاء التطبيقات، وإدارة نُظم تكنولوجيا المعلومات. ومن بين المشاكل والتحديات الرئيسية التي لا يمكن التغاضي عليها : إمكانية تجاوز رفاهية البشر بطريقة تجعل البشر كسالى وغير قادرين على التفكير أو اتخاد القرارات بشكل مستقل عن الآلة، وانعدام الشفافية والأضرار بالخصوصية ومجموعة من المخاطر الأخرى نذكر على سبيل المثال لا الحصر: فقدان الوظائف بسبب استخدام التكنولوجيا بشكل كبير، على حساب العمالة؛ حيث ستحل الآلات محل الوظائف التي يقوم بها البشر، إذ تقول الاحصائيات أن 80 بالمائة من الوظائف ستتاثر بالذكاء الاصطناعي وأن 50 بالمائة من المهام المنجزة سيوفرها الذكاء الاصطناعي. الخلط بين المعلومة والمهارات المكتسبة، إذ في الوقت الذي يوفر فيه الذكاء الاصطناعي المعلومة للمتعلم، فذلك يطور نوعا من الكسل العلمي والتفكيري بشكل يؤثر على تطوير الابتكار والمهارات الشخصية لدى المتعلم. كما يعتمد الذكاء الاصطناعي بالأساس على خرق الخصوصية، إذ يقوم بتحليل كمية هائلة من البيانات الضخمة بما فيها المعطيات ذات الطابع الشخصي. إذ تتوقع مؤسسة البيانات الدولية أن ينمو مجال البيانات العالمي من 33 تريليون غيغابايت في عام 2018 إلى 175 غيغابايت بحلول عام 2025، هذه الكميات هائلة من البيانات تجعل احترام الخصوصية الشخصية أكثر صعوبة في ظل انتشار الذكاء الاصطناعي. كما يبرز كذلك التأثير على صحة الأطفال بسبب استخدام الأجهزة الرقمية بشكل مفرط.
بالحديث عن تقنية chat GPT ، ما مدى أهمية تقنين وتنظيم هذا البرنامج؟ ChatGPT هو الإصدار الأحدث لتشات بوت أو روبوت الدردشة، تم تطويره من قبل مختبر أبحاث الذكاء الاصطناعي "أوبن إيه آي" (OpenAI) في سان فرانسيسكو، وقد استطاع أن يصل إلى مليون مستخدم خلال أسبوع واحد فقط من إطلاقه. ببساطة هو برنامج مصمم لمحاكاة المحادثات البشرية مع المستخدمين، وهو قادر على التفاعل وتقديم أجوبة قريبة بشكل مدهش إلى الاجوبة البشرية. تقنين هذا النظام وتنظيمه يمكن أن يساعد في تقليل المخاطر المحتملة للتطبيقات السلبية للذكاء الاصطناعي، مثل الإساءة إلى الأشخاص أو التحريض على الكراهية أو العنف، والتي يمكن أن تؤدي إلى آثار سلبية على المجتمعات والأفراد. وفي نفس الوقت، يجب أن يتم تقنين وتنظيمه بطريقة تحافظ على حرية التعبير والابتكار، ولا تضعف قدرة الأفراد على استخدام التكنولوجيا بشكل إيجابي.ا 3 كيف يمكن التحكم في قوة الذكاء الاصطناعي للاستفادة منه دون القضاء على البشرية؟ تجنب السلبيات المحتملة للاستخدام المفرط للذكاء الاصطناعي يتطلب تحديد وتقييم هذه السلبيات بشكل دقيق، وتحديد أفضل للممارسات والإرشادات للاستخدام المسؤول لهذه التقنية في المدارس والجامعات قبل غيرهم من المؤسسات والشركات. ويمكن أن يشمل ذلك تحديد حدود استخدام التكنولوجيا في التعليم، وتوفير التدريب المناسب للمعلمين والطلبة على استخدام التكنولوجيا بشكل آمن وفعال، وضمان حماية الخصوصية والتركيز على استخدام الذكاء الاصطناعي بشكل يساهم في تطوير المهارات الشخصية وليس فقط الحصول على المعلومة. وبالإضافة إلى ذلك، يجب أن يتم تطوير سياسات وأطر تنظيمية لضمان استخدام التكنولوجيا بشكل مسؤول، وتحديد مسؤولية المؤسسات عن استخدام هذه التقنية بشكل صحيح مما يستوجب إحداث إطار قانوني خاص ومراعاة الجانب الأخلاقي، وبذلك يمكن التحكم في قوة الذكاء الاصطناعي عن طريق تطوير وتنفيذ قوانين وتشريعات تحدد ما يمكن وما لا يمكن للذكاء الاصطناعي القيام به، وتحدد مسؤولية المطورين والمستخدمين على حد سواء. كما يجب أيضا تحديد معايير للأخلاقيات في استخدام الذكاء الاصطناعي، وتشجيع المطورين على تصميم التطبيقات بطرق تحافظ على حقوق الأفراد وتحد من المخاطر المحتملة للتطبيقات السلبية. كما أن هناك ضرورة ملحة لتغيير المنظومة التعليمية بما يتيح التعامل بشكل جديد مع تطبيقات الذكاء الاصطناعي والاستفادة منها مع التركيز على تطوير المهارات البشرية والتحكم في تطور تقنيات الذكاء الاصطناعي وتكنولوجيا المعلومات. كل ذلك، أدى ببعض الخبراء إلى التوصية بتنظيم أكثر صرامة لمنع أي سوء استخدام محتمل لهذا النوع من التكنولوجيا خصوصا انه يحد من تطوير والقدرات المعرفية للبشر بل يحل محله في شتى الميادين. واذا كانت الثورة الصناعية عوضت عضلات الانسان، فثورة الذكاء الاصطناعي تهدف تعويض العقل البشري بشكل و بآخر، وبذلك نسير نحو تعويض جل مكونات الكائن البشري مما يشكل خطرا محذقا حول استممراريته بل ووجوده إذا لم تتظافر جهود العلماء في مجموعة من الميادين للحد من السلبيات: مشرعين، علماء الاجتماع، فلاسفة.. كما يجب أن لا ننسى الجانب الاخلاقي. ففي الوقت الذي اعتاد الناس اتخاذ قرارات أخلاقية فورية بناء على تحليلهم السريع لمحيطهم، والموقف الذي يجدون أنفسهم فيه، لا تستطيع الآلات القيام بذلك حيث يتخذ الذكاء الاصطناعي القرارات بناء على البيانات التي تمت تغذيته بها والقواعد التي يتم توجيهه من خلالها. وعلى الرغم من أن الآلات يمكن أن تمتثل للقانون تماما، فلا يوجد ما يضمن أن هذا الذكاء سيكون عقلانيا، أو يراعي الجانب الأخلاقي عند اتخاذه للقرارات المهمة. و من بين المخاطر أيضا نقص الشفافية، حيث تستعمل أنظمة الذكاء الاصطناعي خوارزميات معقدة للغاية لدرجة أنه حتى أولئك الذين أنشأوا الخوارزمية لا يمكنهم في بعض الحالات شرح كيفية وصول المتغيرات مجتمعة معًا إلى التنبؤ الناتج. هذه المخاوف كلها تدعو إلى التساؤل حول المسؤولية القانونية؛ فإذا كان نظام الذكاء الاصطناعي مصمما بخوارزميات في بعض الاحيان غامضة، ويسمح التعلم الآلي لاتخاذ القرار بتحسين نفسه، فمن المسؤول قانونيًا عن النتيجة؟ هل هي الشركة أم المبرمج أم النظام؟ هذا الخطر ليس نظريًا، في عام 2018، اصطدمت سيارة ذاتية القيادة بأحد المشاة وقتلتهم؛ في هذه الحالة هل يمكن القول إن سائق النسخ الاحتياطي البشري للسيارة لم يكن منتبهًا وأنه مسؤولاً عندما فشل نظام الذكاء الاصطناعي ؟ وكيف ستتم معاقبته ؟. | ||