الذكاء الاصطناعي .. ثورة فعلية أم تضخيم بهدف الترويج؟

mainThumb

12-07-2023 10:49 PM

printIcon

تصاعد الجدل خلال الأشهر الثمانية الماضية، حول مخاوف مرتبطة بتطور الذكاء الاصطناعي في ظل اهتمام عالمي منقطع النظير تجاه تقنية الذكاء الاصطناعي المعروفة بـ"تشات جي بي تي".

وفي ظل شدة المنافسة بين شركات التكنولوجيا لتطوير ونشر أدوات ذكاء اصطناعي مماثلة لـ"تشات جي بي تي"، أبدى كثير من الناس مخاوفا حول إمكانية وجود تحديات جديدة على مستويات مختلفة يمكن أن تواجه البشرية كلها.

وفي الجهة المقابلة، يؤيد فريق آخر هذه الصناعة باعتبارها مصدرا مهما لفوائد كثيرة في كل القطاعات الاقتصادية، ولكن هؤلاء أنفسهم نبهوا إلى مخاطر يمكن أن ترافق تطورها وخصوصا الذكاء الاصطناعي التوليدي، ما يتطلب تنظيم هذه الصناعة قبل أن يقع البشر ضحية انفلاتها في اتجاهات سلبية.
الجدل المتصاعد حول هذه الظاهرة، أخذ منحى جديا إلى أبعد الحدود حتى أن سؤالا طفا على السطح .. هل سيكون تطور الذكاء الاصطناعي بهذه الوتيرة في صالح البشرية أم أنه سيكون سببا في جرها إلى الهاوية؟.
ووسط هذا الخلاف، ثمة من يرى أن الأمر تم تضخيمه بصورة كبيرة لغايات ترويج منتجات الشركات في قطاع الذكاء الاصطناعي، لأن كل ما يحدث حتى اليوم يدور في فلك الذكاء الاصطناعي المحدود الذي لا يتعدى تلقي التعليمات من قبل البشر وإعادة طرحها للبشر، ومنها أليكسا وسيري وتشات جي بي تي.
وبين الخبراء، أن المخاوف المرتبطة بالذكاء الاصطناعي تشمل احتمال فقدان الوظائف بسبب الأتمتة، ومخاوف تقدمه ليتجاوز الذكاء البشري، وأخرى ترتبط بنشر المعلومات المضللة إذ يمكن للذكاء الاصطناعيّ التوليدي أن يقدم للمجتمع أخباراً مزيفة إذا تمت تغذيته ببيانات مزيفة.
وأشار الخبراء، إلى مخاوف مشروعة حول إمكانية تأثير الذكاء الاصطناعي التوليدي سلبا على الملكية الفكرية خصوصا في الصناعات الإبداعية، والتأثير سلبا على عمليات التعليم وقدرة الإنسان على الابتكار، ومخاوف من تطور قدرات تقنيات الذكاء الاصطناعي لتصبح قادرة على اتخاذ القرارات بعيدا عن العنصر البشري أو السيطرة عليها من قبل جهات تسعى لاستخدامها في أغراض غير مشروعة.
وكان مبتكر "تشات جي بي تي" سام التمان، دعا قبل شهرين المشرعين الأميركيين إلى تنظيم الذكاء الاصطناعي، وإنشاء هيئة جديدة لإصدار تراخيص شركات الذكاء الاصطناعي.
وجاءت دعوة التمان هذه بناء على اعترافه بالتأثير الذي قد يحدثه الذكاء الاصطناعي على الاقتصاد، والذي يشمل احتمال أن تحل تقنية الذكاء الاصطناعي محل بعض الوظائف، وأخطاره المحتملة في نشر المعلومات المضللة وغيرها من التوجهات السلبية.
الاستشاري التقني الاستراتيجي م.هاني محمود البطش، أكد أن مجال الذكاء الاصطناعي هو مجال سريع التطور ولديه القدرة على إحداث ثورة في العديد من جوانب حياتنا.
بيد أن، البطش أكد أن أحد أكبر المخاوف المرتبطة بالذكاء الاصطناعي هو احتمال فقدان الوظائف بسبب الأتمتة.
وقال البطش: "الذكاء الاصطناعي وتطوره؛ يزيد من قدرته على استبدال البشر في العديد من الصناعات؛ ما يسهم في زيادة معدلات البطالة".
وأضاف البطش قائلا: " كذلك يمكن أن تكون خوارزميات الذكاء الاصطناعي متحيزة وتمييزية تؤدي إلى معاملة غير متساوية لمجموعات معينة من الأفراد؛ مثل الأشخاص من مختلف الأعراق أو الأجناس".
ومن التحديات الأخرى والمخاوف المرتبطة بالذكاء الاصطناعي، بحسب البطش، تلك المرتبطة بالبيانات الشخصية، مبينا أن أغلب أنظمة الذكاء الاصطناعي تعتمد على كميات كبيرة من البيانات، والتي يمكن أن تتضمن معلومات شخصية حساسة قد تقع بين أيدي جهات قد تستخدمها لأغراض غير مشروعة.
وقال: "إن هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتطوير أسلحة يمكن استخدامها لاستهداف وقتل الأشخاص".
وأكد البطش، أن أنظمة الذكاء الاصطناعي معقدة نسبًيا؛ ما يجعل من الصعب تحديد كيفية اتخاذها للقرارات لذلك، هناك مخاوف من أن يصبح الذكاء الاصطناعي يومًا ما متقدمًا لدرجة أن يتعدى الذكاء البشري ويصبح من المستحيل التحكم فيه"، لافتا إلى أن هذا الأمر قد يؤدي إلى عدد من النتائج غير المتوقعة والتي قد تكون في بعض الأحيان كارثية.
وبين البطش، أن الحكومات تشعر بالقلق إزاء المخاطر الأمنية التي تشكلها صناعة الذكاء الاصطناعي، نظرًا لأنها أصبحت أكثر تقدمًا، فقد تستخدم هذه الصناعة لشن هجمات سيبرانية أو أنواع أخرى من الهجمات التي قد يكون من الصعب اكتشافها والدفاع عنها.
واتفقت دول مجموعة السبع قبل أشهر قليلة، على تبني قواعد تنظيمية لهذه التقنيات في ظل المخاوف المتعلقة بالخصوصية والمخاطر الأمنية، وبما يضمن تعزيز الشفافية ومواجهة التضليل.
لكن دول مجموعة السبع اتفقت مع أن تلك القواعد التنظيمية، يجب أن "تحافظ أيضا على مناخ مفتوح ومشجع" على تطوير تقنيات الذكاء الاصطناعي، وأن تستند إلى القيم الديمقراطية.
ويرى الخبير في مجال الاتصالات والتقنية وصفي الصفدي، أن هناك مخاوف من الذكاء الاصطناعي نتيجة تطور تقنياته لتصبح ذاتية التطور معتمدة بشكل كبير على كم المعلومات التي يستطيع الوصول إليها وتحليلها واستخدامها في مجالات عدة وصناعات مختلفة.
وأكد الصفدي، أن المخاوف من الذكاء الاصطناعي تأتي لأننا اليوم لا يمكننا تخيل إلى أين يمكن للذكاء الاصطناعي أن يصل؟ وهل سيكون في صالح البشرية أو أنه سيكون السبب في إبادة البشرية؟.
ولفت، إلى أن عددا من الدول دقت ناقوس الخطر فمثلا، إيطاليا أصدرت قرارا بحظر تطبيق مثل " تشات جي بي تي"، لانتهاكه خصوصية القاصرين بجمع البيانات عنهم، داعيا إالى وجود تشريعات دولية بخصوص أخلاقيات الذكاء الاصطناعي للحد من الأضرار التي من الممكن ان تنتهك حقوق البشرية والإنسانية وخاصة فيما يتعلق بالاستخدام السيئ المنافي للإنسانية والبشرية.
وأشار، إلى الخطاب المفتوح الذي وقع عليه عشرات الأشخاص العاملين في مجال الذكاء الاصطناعي في شهر آذار ( مارس ) الماضي، بما في ذلك الملياردير إيلون ماسك، ودعا إلى وقف مؤقت لجميع الجهود لتطوير نسخ أكثر تقدمًا من الإصدار الحالي من روبوت الدردشة " تشات جي بي"، إلى أن يتم التوصل إلى تدابير أمان صارمة وتطبيقها.
وقال الصفدي: "مع اعتمادنا على التكنولوجيا والإنترنت بشكل كبير اليوم، ومع هذه المعرفة الفائقة والقدرة على التحكم في الصناعات من قبل تقنيات الذكاء الاصطناعي، فنحن أمام آلة قادرة مثلا على تصنيع أسلحة بيولوجية وكيميائية قاتلة، تطوير سلاسل الحمض النووي، انتهاك الخصوصية خاصة مع التزييف العميق القادر على إنشاء شخصيتك واستخدامها بصور عدة، غير مشروعة قد تكون ضارة لسمعة الشخص وتوريطه بقضايا مختلفة، أيضا يمكن له إرسال رسائل وايميلات اختراق لملايين الحسابات خلال ثوان".
ومن أبرز الشخصيات التي أكدت المخاطر المحتملة لأنظمة الذكاء الاصطناعي، جيفري هينتون الرائد في عالم الذكاء الاصطناعي، أو كما يحبون مناداته "أبو الذكاء الاصطناعي"، إذ صرح العام الحالي أنه على الرغم من الفوائد العظيمة لأنظمة الذكاء الاصطناعي في كافة المجالات، بما في ذلك العسكرية والاقتصادية، فإنه يشعر بالقلق من أن تضع هذه الأنظمة لنفسها أهدافا فرعية لا تتماشى مع اهتمامات مبرمجيها.
وأعرب هينتون، الذي تخلى عن منصبه في شركة "جوجل"، عن قلقه من سوء الاستخدام الكارثي لأنظمة الذكاء الصناعي، من قبل جهات "خبيثة"، قال: "إنها قد تستغل الذكاء الاصطناعي لأغراض سيئة"، كما عبر عن قلقه من تأثيرات سلبية على الوظائف في سوق العمل.
وأكد مدير مركز الاستشارات والتدريب في جامعة الأميرة سمية للتكنولوجيا أ.د.جعفر الصرايره، أنه يجب وضع إطار تنظيمي وإجراءات لاستخدام الذكاء الاصطناعي، تشمل جملة من السياسات والقوانين التي تحكم استخدام تلك التقنيات محليا وعالميا، لافتا إلى أهمية أن تشارك الجهات المعنية في عملية تطوير هذا الإطار التنظيمي، بما في ذلك الحكومة والشركات والمؤسسات الأكاديمية والمجتمع المدني والخبراء في مجال الذكاء الاصطناعي.
وأشار، إلى أنه على المستوى العالمي، هناك مبادرات ومؤسسات تعمل على تطوير إطارات تنظيمية للذكاء الاصطناعي، منها ما تقوم به الأمم المتحدة بتطوير مبادئ توجيهية عالمية للذكاء الاصطناعي تركز على الأخلاقيات وحقوق الإنسان والشفافية والمسؤولية.
وزير الاقتصاد الرقمي والريادة أحمد الهناندة كان صرح مؤخرا لـ"الغد"، أن "الحكومة تتابع باهتمام التطورات الحاصلة في مجال الذكاء الاصطناعي، وهي تعمل باستمرار على تمكين المجتمع والقطاع الخاص والمؤسسات الحكومية للاستفادة من كل التطورات التقنية الحاصلة بما فيها الذكاء الاصطناعي في إطار عملية التحول الرقمي التي تقوم عليها.
وأكد، أن الحكومة تجهزت منذ سنوات للاستفادة من تطورات الذكاء الاصطناعي بإقرار السياسة الأردنية للذكاء الاصطناعي، الميثاق الوطني لأخلاقيات الذكاء الاصطناعي، الاستراتيجية الأردنية للذكاء الاصطناعي والخطة التنفيذية (2023-2027)، ومشروع قياس جاهزية مؤسسات القطاع العام لتبني الذكاء الاصطناعي، والتعاون الفني مع الوكالة اليابانية للتعاون الدولي.
الخبير التقني حسام خطاب، وصف تقنية الذكاء الاصطناعي بأنها: "تسلب الألباب"، وما قد يلحظه المرء في الوقت الحالي أن المصطلح "بات تسويقيا"، وأن جل ما نراه ونسمع عنه اليوم ما هو إلا أجهزة تنفذ مهاما آلية. وبين، أن الشركات تتسابق لتصف منتجاتها بأنها تعتمد على الذكاء الصناعي؛ لأنها التقنية الدارجة ولا أحد يريد أن يتخلف عن الركب.
وضرب مثلا نظام المحادثة " ChatGPT " الذي يرى أنه، "ما يزال لا يعمل على الذكاء الصناعي بمعناه الكبير"، ففي حالته الآلة لا تفكر، وإنما هي تستقبل الأوامر، وتقرر المجموعة الأمثل من الكلمات للإجابة بناء على قاعدة بيانات ضخمة جرى تدريبها عليها.
وبين خطاب، أنواع الذكاء الصناعي واولها الذكاء الصناعي المحدود Narrow AI: من تطبيقاته المساعدات الذكية مثل، أليكسا وسيري ونظام المحادثة ChatGPT تطبيقات تمت برمجتها لتنفيذ مهام محددة، ولا تملك ذكاء.
وقال: "النوع الثاني، يتمثل بـالذكاء الصناعي العام General AI: الآلة تفهم وتنفذ مهاما متعددة بناء على خبرات متراكمة، وهو مقارب للذكاء البشري. الآلة واعية وتحلل وتفكر، وهو غير متحقق في منتجات اليوم".
وقال خطاب: "النوع الثالث هو: الذكاء الصناعي الخارق Super AI: وفيه الآلة تتجاوز الذكاء البشري في جميع المجالات والمهام، كما أن الآلة قادرة على التعلم وتطوير نفسها، وهو مفهوم نظري حتى هذه اللحظة".
واكد قائلا: "ما نزال لم نتعامل مع آلات تفكر بمعزل عن التدخل البشري، وتطور من نفسها ذاتيا وتتعلم وتتفوق على مبرمجها، وجميع التطبيقات التجارية المتوفرة الآن تدور في فلك الذكاء الاصطناعي المحدود، لا بد من فهم هذه الحقيقة التي تغفل أو تتغافل عنها الشركات والأشخاص بقصد أو من دون قصد".
وبين: "أن الذكاء الاصطناعي المحدود يشبه المهام التي كنا ننفذها سابقا، ولكنها صارت أسرع آليا، وجل ما نسمع عنه يندرج تحت هذه الفئة. أما أن تفكر الآلة مثل البشر، أو أن تفوقهم ذكاء، المفهوم ليس له تطبيقات تجارية حتى اللحظة، وهو واقع ربما تتجاوز عنه الشركات".
وقال مدير عام "شركة التحليل النقي للاستشارات الإدارية والتكنولوجية" د.معتز محمد الدبعي: "من المهم النظر بعناية في عيوب الذكاء الاصطناعي المحتملة واتخاذ خطوات للتخفيف منها والعمل على التحكم في تأثيره السلبي على الإنسانية".
ودعا الدبعي، إلى تحقيق توازن بين ملاءمة الذكاء الاصطناعي والحاجة إلى الحفاظ على قدراتنا المعرفية والاكتفاء الذاتي. وبين الدبعي، أن المخاوف الرئيسة في هذا المجال تتعلق بالاعتماد المفرط على الذكاء الاصطناعي في أداء الأعمال الحياتية والمهنية، والتي من المحتمل أن تؤدي إلى فقدان مهاراتنا الأساسية وانعدام الثقة بقدراتنا البشرية.
ولفت، إلى أن الأمر من الممكن أن يتطور لدرجة قد تؤدي إلى فقدان القدرة على الابتكار والتفكير الإبداعي وإلى انعدام قدرة البشرية على الاستجابة للظروف الخاصة وغير المتوقعة.
وضرب مثلا، استخدام المساعدين الصوتيين وتزايد انتشارها التي قد يعتمد عليها الناس بشكل كبير في أداء المهام الأساسية مثل، التذكير بالمواعيد والمهام الواجب إنجازها، مثل إجراء المكالمات الهاتفية أو طلب السلع والخدمات.
وقال الدبعي: "إن هذا الاعتماد المفرط على الذكاء الاصطناعي قد يؤدي إلى تراجع مهارات الاتصال والمهارات الاجتماعية".
وبين، أن للذكاء الاصطناعي أثرا سلبيا محتملا على الصحة العقلية، حيث إنه من الممكن استخدام الذكاء الاصطناعي لإنشاء إعلانات أو محتوى مخصصا وموجها للغاية وبشكل شخصي، والذي يمكن أن يكون له تأثير سلبي على الصحة العقلية من خلال تعزيز التحيزات السلبية أو الصور النمطية أو انعدام الأمن.