اخبار اليوم - أثار مجموعة من الموظفين الحاليين والسابقين في شركات رائدة بالذكاء الاصطناعي، بما في ذلك "OpenAI" المدعومة من " مايكروسوفت " و"Google DeepMind " التابعة لشركة "Alphabet"، مخاوف حول المخاطر المحتملة التي تشكلها هذه التكنولوجيا الناشئة.
وفي رسالة مفتوحة وقعها 11 موظفاً حالياً وسابقاً من OpenAI، بالإضافة إلى موظف حالي وآخر سابق من Google DeepMind، أشاروا إلى أن الدوافع المالية لشركات الذكاء الاصطناعي تعيق فعالية الرقابة الفعّالة على هذه التكنولوجيا.
وأضافت الرسالة: "لا نعتقد أن الهياكل المصممة خصيصاً لحوكمة الشركات كافية لتغيير هذا الوضع".
كما حذرت من المخاطر المرتبطة بالذكاء الاصطناعي غير المنظم، بدءاً من انتشار المعلومات الزائفة إلى فقدان الأنظمة الذكية المستقلة وتعميق التفاوتات القائمة، مما قد يؤدي في نهاية المطاف إلى "انقراض البشرية".
وكشفت دراسات عن أمثلة لمولدات الصور من شركات مثل "OpenAI" و"مايكروسوفت" تنتج صوراً تحتوي على معلومات مغلوطة تتعلق بالانتخابات، وذلك على الرغم من سياسات هذه الشركات التي تحظر مثل هذا المحتوى.
وأشارت الرسالة إلى أن شركات الذكاء الاصطناعي لديها "التزامات ضعيفة" في مشاركة المعلومات مع الحكومات حول قدرات وقيود أنظمتها، مشددة على أنه لا يمكن الاعتماد على هذه الشركات لمشاركة تلك المعلومات بشكل طوعي.
وتعتبر هذه الرسالة الأحدث ضمن سلسلة من التحذيرات التي تسلط الضوء على مخاطر السلامة المحيطة بتكنولوجيا الذكاء الاصطناعي التوليدي، والتي لديها القدرة على إنتاج نصوص وصور ومقاطع صوتية تشبه نظيراتها البشرية بسرعة وبتكلفة منخفضة.
وحثت المجموعة شركات الذكاء الاصطناعي على تسهيل عملية إبلاغ الموظفين الحاليين والسابقين عن المخاطر المحتملة، وعدم فرض اتفاقيات سرية تمنع توجيه الانتقادات.
وفي سياق متصل، أعلنت شركة OpenAI، التي يقودها سام ألتمان، عن نجاحها في تعطيل خمس عمليات تأثير سرية حاولت استغلال نماذج الذكاء الاصطناعي الخاصة بها لأغراض "النشاط الخادع" عبر الإنترنت.