أخبار اليوم - لقد تنبأ عالم السياسة الأمريكي فرانسيس فوكوياما في عام 1989، بأننا على أعتاب نهاية التاريخ، معتقدًا أن القيم الديمقراطية الليبرالية ستعم العالم، لكن، بعد مرور أكثر من ثلاثة عقود، يبدو أن توقعات فوكوياما لم تتحقق بالكامل، مع ذلك، من الواضح أن التاريخ يتجه نحو نهاية أخرى، مختلفة تمامًا، محورها الذكاء الاصطناعي.
فهناك العديد من السيناريوهات التي يمكن أن تؤدي إلى نهاية البشرية، مثل: جائحة عالمية مدمرة، أو نيزك عملاق يصطدم بالأرض، أو كارثة مناخية تخرج عن السيطرة، وكلها تهديدات وجودية يمكن أن تقضي على الحضارة الإنسانية، لكن، هناك تهديد آخر بدأ يلوح في الأفق، وهو الذكاء الاصطناعي، هذا التطور التكنولوجي الضخم، الذي كان يُنظر إليه في البداية كأداة لتحسين حياة البشر، أصبح اليوم يُنظر إليه بقلق وخوف.
إذ يشبه خطر الذكاء الاصطناعي خطر تغير المناخ، فكلاهما يزحفان علينا ببطء، ولكنهما يحملان في طياتهما تهديدًا وجوديًا، فالكثير من الخبراء والعلماء يخشون أن الذكاء الاصطناعي، قد يتفوق على الذكاء البشري، ويصبح قادرًا على اتخاذ قرارات مصيرية دون تدخل أو سيطرة من الإنسان، وهذا السيناريو، الذي كان يُعدّ في الماضي ضربًا من الخيال العلمي، أصبح اليوم موضوعًا للنقاش الجاد بين العلماء والمفكرين وصناع السياسات.
لذلك سنسلط في هذا التقرير الضوء على آراء وأفكار أبرز العلماء والمفكرين حول مستقبل الذكاء الاصطناعي، وكيف يمكن للآلات أن تتفوق على الذكاء البشري، إلى أي مدى يجب أن نقلق بشأن هذا الأمر، وما الذي يمكننا فعله لمنع حدوث ذلك؟
أدلى سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في عام 2022، بتصريح لافت حول الذكاء الاصطناعي، أشار فيه إلى كل من الجوانب المشرقة والمخيفة المحتملة لهذا التطور التكنولوجي، إذ وصف ألتمان الإمكانيات الإيجابية للذكاء الاصطناعي بأنها جيدة بشكل لا يصدق لدرجة أنك تبدو كشخص مجنون حقًا عندما تبدأ بالحديث عنها، في إشارة إلى قدرة هذه التقنية على تحقيق تطورات ضخمة في مختلف المجالات.
لكنه في المقابل، حذر من أن الجانب المظلم للذكاء الاصطناعي قد يؤدي إلى “انطفاء الأضواء علينا جميعًا”، بمعنى أنه قد يشكل تهديدًا وجوديًا للبشرية جمعاء.
وفي ديسمبر 2024، جاءت تصريحات البروفيسور جيفري هينتون، الذي يُعرف بالأب الروحي للذكاء الاصطناعي، والحائز على جائزة نوبل في الفيزياء لعام 2024، لتزيد من المخاوف بشأن مستقبل البشرية في ظل التطور المتسارع لهذه التقنية.
فقد أعرب هينتون في تصريحاته عن مخاوفه من تطور الذكاء الاصطناعي بسرعة دون إشراف، متوقعًا وجود احتمال بنسبة تتراوح بين 10% و 20% أن يؤدي الذكاء الاصطناعي إلى انقراض الجنس البشري في غضون الثلاثين عامًا القادمة، وهذا التقييم، الذي صدر عن عالم بارز ومُلمٍّ بنحو كبير بتفاصيل هذا المجال، أثار قلقًا واسعًا في الأوساط العلمية وبين عامة الناس.
تحذيرات مبكرة من مخاطر الذكاء الاصطناعي:
لم يكن سام ألتمان وجيف هينتون أول من أعربوا عن قلقهم بشأن المخاطر المحتملة للذكاء الاصطناعي، فمنذ بدايات هذا المجال، كان هناك تخوف من أن يتفوق الذكاء الاصطناعي على القدرات البشرية ويصبح خارجًا عن سيطرتنا.
ويُعدّ آلان تورينج، مؤسس علم الذكاء الاصطناعي، الذي صنفته مجلة (Time) كواحد من أكثر 100 شخصية مؤثرة في القرن العشرين، من أوائل الذين تنبؤوا بإمكانية تفوق الآلات على البشر.
ففي عام 1950، نشر تورينج ورقة علمية تُعدّ أول عمل أكاديمي حول الذكاء الاصطناعي، وبعد عام واحد فقط، قدم تنبؤًا لا يزال يتردد صداه حتى اليوم، إذ حذر من أنه بمجرد أن تتمكن الآلات من التعلم من التجربة مثل البشر، لن تستغرق وقتًا طويلًا لتتفوق علينا، لذلك يجب أن نتوقع أن تتولى الآلات السيطرة.
ولم يقتصر القلق على تورينج وحده، ففي عام 1970، تنبأ مارفن مينسكي، وهو أحد مؤسسي علم الذكاء الاصطناعي، في مقابلة مع مجلة LIFE، بأن عقل الإنسان المحدود قد لا يكون قادرًا على التحكم بالذكاء الاصطناعي الفائق، إذ يخشى مينسكي من أن يتفوق الذكاء الاصطناعي على قدرة الإنسان على فهمه والتحكم فيه مما قد يؤدي إلى فقدان السيطرة عليه.
ولكن كيف يمكن للآلات أن تتفوق على الذكاء البشري؟
لقد تنبأ إيرفينج جود، عالم الرياضيات الذي عمل مع آلان تورينج في (Bletchley Park) خلال الحرب العالمية الثانية، بكيفية حدوث ذلك، ويطلق جود على هذه العملية اسم (انفجار الذكاء) intelligence explosion، وهي المرحلة التي تصبح فيها الآلات ذكية بما يكفي لبدء تحسين نفسها بشكل مستقل.
ويُعرف هذا المفهوم الآن بشكل أكثر شيوعًا باسم التفرد (Singularity)، وقد تنبأ جود بأن التفرد سيؤدي إلى ظهور آلة فائقة الذكاء، وأشار إلى أن هذه الآلة ستكون آخر اختراع يحتاج الإنسان إلى صنعه على الإطلاق.
متى قد يتجاوز ذكاء الآلة الذكاء البشري؟
يبقى السؤال المحوري هو: متى بالضبط قد يتجاوز ذكاء الآلة الذكاء البشري؟ هذا الأمر غير مؤكد إلى حد كبير، ولكن، نظرًا إلى التقدم الأخير في النماذج اللغوية الكبيرة مثل GPT، و Gemini، والوصول إلى مرحلة النماذج التي تفكر قبل الإجابة، يشعر الكثيرون بالقلق من أن هذه اللحظة قد تكون قريبة جدًا، ومما يزيد الطين بلة، أننا نسرع هذه العملية من خلال استثماراتنا الضخمة في هذا المجال.
فما يثير الدهشة في تطور الذكاء الاصطناعي اليوم هو سرعة التغيير وحجمه، إذ يجري استثمار ما يقرب من مليار دولار أمريكي يوميًا في هذا المجال من شركات عملاقة مثل: جوجل ومايكروسوفت وميتا وأمازون، ويمثل ذلك نحو ربع إجمالي ميزانية البحث والتطوير في العالم.
ولم نشهد من قبل مثل هذه المراهنات الضخمة على تقنية واحدة، ونتيجة لذلك، فإن الجداول الزمنية التي يتوقعها الكثيرون بشأن تطابق الآلات للذكاء البشري، ثم تجاوزه بعد مدة وجيزة، تتقلص بسرعة.
فقد توقع إيلون ماسك أن تتفوق الآلات علينا بحلول عام 2026، واقترح داريو أمودي، الرئيس التنفيذي لشركة (Anthropic) أننا سنصل إلى هذه المرحلة في عام 2026 أو 2027، وتنبأ شين ليج، المؤسس المشارك لشركة جوجل ديب مايند، بأن يحدث ذلك في عام 2028، في حين حدد جنسن هوانج، الرئيس التنفيذي لشركة إنفيديا، التاريخ في عام 2029. وتشترك جميع هذه التنبؤات في قربها الزمني، مما يثير تساؤلات مقلقة حول مستقبل العلاقة بين الإنسان والآلة.
ومع ذلك؛ لا يتفق الجميع على قرب حدوث التفرد وتجاوز الآلات للذكاء البشري، فهناك أصوات معارضة ترى أن هذا الأمر سيستغرق وقتًا أطول، مثل: يان لوكون (Yann LeCun)، عالم الحاسوب الفرنسي، وأحد الآباء الروحيين الثلاثة للذكاء الاصطناعي، الذي يشغل الآن منصب كبير العلماء في شركة (ميتا)، والذي يرى أن هذا الأمر سيستغرق سنوات، إن لم يكن عقودًا، ويتوقع آخرون، ومنهم جاري ماركوس، البروفيسور الفخري في جامعة نيويورك، أن يحدث ذلك ربما بعد 10 أعوام أو 100 عام من الآن.
ولكن بمجرد أن يصل الذكاء الاصطناعي إلى مستوى ذكاء الإنسان، سيكون من الوهم أن نعتقد أنه لن يتفوق عليه، ففي نهاية المطاف، الذكاء البشري هو مجرد حادث تطوري. وفي حين نحن قادرون على تصميم أنظمة تتفوق على الطبيعة، مثل الطائرات التي تفوق الطيور في سرعتها وقدرتها على التحليق، سنجد العديد من الأسباب التي تجعل الذكاء الاصطناعي أفضل من الذكاء البيولوجي، ومنها:
سرعة الحسابات: الحواسيب قادرة على إجراء العديد من العمليات الحسابية بسرعة تفوق سرعة البشر بمراحل.
الذاكرة: تتمتع الحواسيب بذاكرة واسعة لا يمكن مقارنتها بذاكرة الإنسان، وهي لا تنسى أبدًا.
التخصص: في مجالات محددة مثل: لعب الشطرنج، وتحليل الأشعة السينية، وطي البروتينات، تتفوق الحواسيب حاليًا بالفعل على البشر.
وهنا السؤال الذي يطرح نفسه هو: كيف يمكن لحواسيب فائقة الذكاء أن تقضي علينا؟
هنا، تصبح الإجابات غامضة إلى حد ما، فقد قال جيفري هينتون لصحيفة نيويورك تايمز: “إذا وصل الذكاء الاصطناعي إلى درجة من الذكاء تفوقنا بكثير، فسيكون جيدًا جدًا في التلاعب لأنه سيتعلم ذلك منا، وهناك أمثلة قليلة جدًا على كائنات أكثر ذكاءً تتحكم فيها كائنات أقل ذكاءً”.
وبطريقة محيرة ومعقدة، غالبًا ما يجادل أولئك الذين يخشون الذكاء الاصطناعي الفائق بأننا لا نستطيع أن نعرف بدقة كيف يهدد وجودنا، وكيف يمكننا التنبؤ بخطط شيء أكثر ذكاءً منا؟ يشبه الأمر سؤال كلب أن يتخيل نهاية العالم في حرب نووية حرارية.
ومع ذلك؛ طُرحت بعض السيناريوهات المحتملة لسيطرة الآلات علينا، التي قد تؤدي إلى نهاية البشرية، ومنها:
تدمير البنية التحتية: يمكن للذكاء الاصطناعي تحديد نقاط الضعف في البنية التحتية الحيوية، مثل: شبكات الطاقة أو الأنظمة المالية، ومهاجمتها لتدمير المجتمع.
تصميم أوبئة قاتلة: قد يقوم الذكاء الاصطناعي بتصميم مسببات أمراض جديدة شديدة الفتك وسريعة الانتشار، مما يؤدي إلى جائحة تقضي على البشرية.
الآلات النانوية الذاتية التكاثر: يقترح إيليزر يودكوفسكي سيناريو أكثر خيالية، يقوم فيه الذكاء الاصطناعي بإنشاء آلات نانوية ذاتية التكاثر تتسلل إلى مجرى الدم البشري وتطلق سمومًا قاتلة.
تتطلب هذه السيناريوهات منح أنظمة الذكاء الاصطناعي القدرة على العمل في العالم الحقيقي، وهذا هو بالضبط ما تفعله شركات مثل OpenAI، التي تعمل بنشاط على تطوير وكلاء ذكاء اصطناعي قادرين على تنفيذ مهام متنوعة، مثل الرد على رسائل البريد الإلكتروني والمساعدة في التوظيف.
ويفتح منح الذكاء الاصطناعي القدرة على التحكم بالبنية التحتية الحيوية الباب أمام مخاطر جسيمة، إذ يمكن لذكاء اصطناعي مخترق أو مُبرمج بطريقة غير صحيحة أن يتسبب بكوارث واسعة النطاق، مثل انقطاع التيار الكهربائي على مستوى البلاد، أو تعريض سلامة أنظمة المياه للخطر.
كما يشكل تصميم أسلحة بيولوجية باستخدام الذكاء الاصطناعي تهديدًا وجوديًا للبشرية، إذ يمكن لذكاء اصطناعي مُبرمج بطريقة خبيثة أن يستغل قدراته في تحليل البيانات الضخمة وعلم الأحياء لتصميم كائنات دقيقة فتاكة ومعدية، ويمكن أن تنتشر هذه الكائنات الدقيقة بسرعة وتتسبب بأوبئة عالمية تقضي على ملايين البشر.
نعم توجد ضمانات حالية لمنع إساءة استخدام الجهات الخبيثة لهذه التقنية الآن، فعلى سبيل المثال، تفرض الحكومة الأسترالية على مشغلي البنية التحتية الحيوية اتخاذ خطوات ملموسة لتقليل المخاطر الأمنية، كما توجد ضوابط دولية لمنع انتشار الأسلحة البيولوجية.
ومع ذلك، فإن هذه الضمانات والضوابط قد لا تكون كافية للتعامل مع التحديات المطروحة، فأنظمة الذكاء الاصطناعي تتمتع بقدرات تعلم وتكيف متطورة، مما يجعلها قادرة على اكتشاف نقاط الضعف في الأنظمة الأمنية وتجاوزها.
لذلك يقود الاتحاد الأوروبي الجهود لتنظيم الذكاء الاصطناعي، لكن قمة عمل الذكاء الاصطناعي الأخيرة في باريس تسلط الضوء على الفجوة المتزايدة بين المتحمسين لمزيد من التنظيم، والذين يرغبون في تسريع نشر الذكاء الاصطناعي، مثل الولايات المتحدة، فالحوافز المالية والجيوسياسية للفوز بسباق الذكاء الاصطناعي قد تدفع بعض الجهات إلى تجاهل المخاطر المحتملة وهو أمر مقلق للغاية.
ومن ثم؛ يرى العلماء والباحثون والمفكرون أننا يجب أن نكون على أهبة الاستعداد لمواجهة هذه التحديات من خلال وضع ضوابط صارمة على تطوير الذكاء الاصطناعي واستخدامه، وتعزيز التعاون الدولي في هذا المجال؛ لأن الأمر الآن قد يؤدي إلى كوارث غير متوقعة، تصل إلى حد تهديد وجودنا على هذا الكوكب.