مما لا شك فيه أن الذكاء الاصطناعي أصبح قادراً على رسم صور ومعالجتها بشكل مقنع لدرجة أنه قد يصعب فصل بين ما هو حقيقي ومزيف.
يمكن الآن للتطورات الحديثة في الذكاء الاصطناعي، كنماذج «DALL-E» و«Midjourney»، إنشاء صور أو تغييرها بسهولة بناءً على مدخلات النص فقط.
وتطرح هذه القدرات المتلاحقة مجموعة من التساؤلات الأخلاقية من حيث سوء الاستخدام المحتمل، كصور لأحداث غير حقيقية وما يمكن أن تثيره من ذعر أو فيما يتعلق بالتلاعب بالصور الشخصية بغرض الابتزاز.
ابتكار «PhotoGuard»
وسط هذه المخاوف، يقدم الباحثون في مختبر علوم الكمبيوتر والذكاء الاصطناعي، التابع لمعهد «ماساتشوستس للتكنولوجيا» (MIT) إجراءً مضادًا عبر تقنية تسمى «فوتو غارد PhotoGuard».
تستخدم هذه الأداة المبتكرة ما يصفه مبتكروها بـ«الاضطرابات أو الشفرات»، وهي تغييرات صغيرة في بكسل الصورة لا يمكن أن يراها البشر بالعين المجردة، ولكنها مهمة بالنسبة للذكاء الاصطناعي لحماية الصور من التلاعب.
ويشرح هادي سلمان، من معهد «ماساتشوستس للتكنولوجيا»، والمؤلف الرئيسي لأبحاث «PhotoGuard»، في حديث خاص لـ«الشرق الأوسط»، من مدينة سان فرانسيسكو الأميركية، كيفية عمل هذا الابتكار.
خطورة إساءة الاستخدام
يؤكد هادي سلمان في حديثه لـ«الشرق الأوسط» على خطورة إساءة استخدام صور الذكاء الاصطناعي المحتملة و«أن سهولة تزييف الأحداث الكارثية أو التلاعب بالصور الشخصية تشكل تهديدات تتراوح بين تعطيل السوق والابتزاز».
وحول سؤال عن برامج الذكاء الاصطناعي التي يمكن أن يعمل من خلالها «PhotoGuard»، يقول إن ما تم تجربته يقتصر فقط على برامج ذكاء اصطناعي متوفرة عبر الإنترنت، تدعى «Stable Difussion Models» من شركة «Stability AI».
ويشدد على أهمية تبني الشركات التي تطرح برامج ذكاء الاصطناعي لهذا الابتكار.
تطبيقات «PhotoGuard»
تتعدد تطبيقات واستخدامات تقنية «PhotoGuard» حيث قد تمنع نشر الصور الكاذبة وتخفف من معلومات مضللة في قطاع الأخبار. أما في مجال إنفاذ القانون، فيمكن للتقنية ضمان بقاء صور مسرح الجريمة من دون تلاعب. أيضاً يمكن لمنصات التواصل الاجتماعي الاستفادة من «PhotoGuard» لوقف انتشار المحتوى المسيء. وفي إجابة عن سؤال حول نوع الصور التي يمكن أن تطبق عليها هذه التقنية، يقول هادي سلمان إنها يمكن أن تنجح باختلاف الأنواع، سواء أكانت لبشر حتى رسومات فنية.
تحديات تصميم «PhotoGuard»
لم يكن الجانب التقني هو التحدي الأكبر الذي واجه هادي سلمان وزملاءه أثناء تصميم «PhotoGuard» بل يقول لـ«الشرق الأوسط» إن مكافحة التلاعب بالصور «تتطلب استجابة جماعية من قبل الشركات التي تطور برامج الذكاء الاصطناعي، وإنه يجب على صناع السياسات النظر في وضع لوائح لحماية بيانات المستخدم من التلاعب بالذكاء الاصطناعي».
يؤكد هؤلاء الباحثون أنهم لن يستطيعوا إزالة خطورة تعديل الصور وسرقتها بشكل غير قانوني وأخلاقي تماماً، خاصة باستخدام برامج يمكن أن يتدرب عليها من يريد ذلك بسرعة، مثل «فوتوشوب» وغيره. إلا أن هدفهم هو جعل مسألة التعديل والتزييف باستخدام برامج الذكاء الاصطناعي أكثر صعوبة وعلى نطاق أوسع لأنها لا تحتاج إلى المعرفة المسبقة بطريقة استخدام برامج التعديل الاحترافية المتوفرة. ففي العصر الرقمي الحالي، ربما تمثل «PhotoGuard» تأكيداً على أن التكنولوجيا يمكن أن تكون المشكلة، والحل في الوقت نفسه.
الشرق الأوسط
مما لا شك فيه أن الذكاء الاصطناعي أصبح قادراً على رسم صور ومعالجتها بشكل مقنع لدرجة أنه قد يصعب فصل بين ما هو حقيقي ومزيف.
يمكن الآن للتطورات الحديثة في الذكاء الاصطناعي، كنماذج «DALL-E» و«Midjourney»، إنشاء صور أو تغييرها بسهولة بناءً على مدخلات النص فقط.
وتطرح هذه القدرات المتلاحقة مجموعة من التساؤلات الأخلاقية من حيث سوء الاستخدام المحتمل، كصور لأحداث غير حقيقية وما يمكن أن تثيره من ذعر أو فيما يتعلق بالتلاعب بالصور الشخصية بغرض الابتزاز.
ابتكار «PhotoGuard»
وسط هذه المخاوف، يقدم الباحثون في مختبر علوم الكمبيوتر والذكاء الاصطناعي، التابع لمعهد «ماساتشوستس للتكنولوجيا» (MIT) إجراءً مضادًا عبر تقنية تسمى «فوتو غارد PhotoGuard».
تستخدم هذه الأداة المبتكرة ما يصفه مبتكروها بـ«الاضطرابات أو الشفرات»، وهي تغييرات صغيرة في بكسل الصورة لا يمكن أن يراها البشر بالعين المجردة، ولكنها مهمة بالنسبة للذكاء الاصطناعي لحماية الصور من التلاعب.
ويشرح هادي سلمان، من معهد «ماساتشوستس للتكنولوجيا»، والمؤلف الرئيسي لأبحاث «PhotoGuard»، في حديث خاص لـ«الشرق الأوسط»، من مدينة سان فرانسيسكو الأميركية، كيفية عمل هذا الابتكار.
خطورة إساءة الاستخدام
يؤكد هادي سلمان في حديثه لـ«الشرق الأوسط» على خطورة إساءة استخدام صور الذكاء الاصطناعي المحتملة و«أن سهولة تزييف الأحداث الكارثية أو التلاعب بالصور الشخصية تشكل تهديدات تتراوح بين تعطيل السوق والابتزاز».
وحول سؤال عن برامج الذكاء الاصطناعي التي يمكن أن يعمل من خلالها «PhotoGuard»، يقول إن ما تم تجربته يقتصر فقط على برامج ذكاء اصطناعي متوفرة عبر الإنترنت، تدعى «Stable Difussion Models» من شركة «Stability AI».
ويشدد على أهمية تبني الشركات التي تطرح برامج ذكاء الاصطناعي لهذا الابتكار.
تطبيقات «PhotoGuard»
تتعدد تطبيقات واستخدامات تقنية «PhotoGuard» حيث قد تمنع نشر الصور الكاذبة وتخفف من معلومات مضللة في قطاع الأخبار. أما في مجال إنفاذ القانون، فيمكن للتقنية ضمان بقاء صور مسرح الجريمة من دون تلاعب. أيضاً يمكن لمنصات التواصل الاجتماعي الاستفادة من «PhotoGuard» لوقف انتشار المحتوى المسيء. وفي إجابة عن سؤال حول نوع الصور التي يمكن أن تطبق عليها هذه التقنية، يقول هادي سلمان إنها يمكن أن تنجح باختلاف الأنواع، سواء أكانت لبشر حتى رسومات فنية.
تحديات تصميم «PhotoGuard»
لم يكن الجانب التقني هو التحدي الأكبر الذي واجه هادي سلمان وزملاءه أثناء تصميم «PhotoGuard» بل يقول لـ«الشرق الأوسط» إن مكافحة التلاعب بالصور «تتطلب استجابة جماعية من قبل الشركات التي تطور برامج الذكاء الاصطناعي، وإنه يجب على صناع السياسات النظر في وضع لوائح لحماية بيانات المستخدم من التلاعب بالذكاء الاصطناعي».
يؤكد هؤلاء الباحثون أنهم لن يستطيعوا إزالة خطورة تعديل الصور وسرقتها بشكل غير قانوني وأخلاقي تماماً، خاصة باستخدام برامج يمكن أن يتدرب عليها من يريد ذلك بسرعة، مثل «فوتوشوب» وغيره. إلا أن هدفهم هو جعل مسألة التعديل والتزييف باستخدام برامج الذكاء الاصطناعي أكثر صعوبة وعلى نطاق أوسع لأنها لا تحتاج إلى المعرفة المسبقة بطريقة استخدام برامج التعديل الاحترافية المتوفرة. ففي العصر الرقمي الحالي، ربما تمثل «PhotoGuard» تأكيداً على أن التكنولوجيا يمكن أن تكون المشكلة، والحل في الوقت نفسه.
الشرق الأوسط
مما لا شك فيه أن الذكاء الاصطناعي أصبح قادراً على رسم صور ومعالجتها بشكل مقنع لدرجة أنه قد يصعب فصل بين ما هو حقيقي ومزيف.
يمكن الآن للتطورات الحديثة في الذكاء الاصطناعي، كنماذج «DALL-E» و«Midjourney»، إنشاء صور أو تغييرها بسهولة بناءً على مدخلات النص فقط.
وتطرح هذه القدرات المتلاحقة مجموعة من التساؤلات الأخلاقية من حيث سوء الاستخدام المحتمل، كصور لأحداث غير حقيقية وما يمكن أن تثيره من ذعر أو فيما يتعلق بالتلاعب بالصور الشخصية بغرض الابتزاز.
ابتكار «PhotoGuard»
وسط هذه المخاوف، يقدم الباحثون في مختبر علوم الكمبيوتر والذكاء الاصطناعي، التابع لمعهد «ماساتشوستس للتكنولوجيا» (MIT) إجراءً مضادًا عبر تقنية تسمى «فوتو غارد PhotoGuard».
تستخدم هذه الأداة المبتكرة ما يصفه مبتكروها بـ«الاضطرابات أو الشفرات»، وهي تغييرات صغيرة في بكسل الصورة لا يمكن أن يراها البشر بالعين المجردة، ولكنها مهمة بالنسبة للذكاء الاصطناعي لحماية الصور من التلاعب.
ويشرح هادي سلمان، من معهد «ماساتشوستس للتكنولوجيا»، والمؤلف الرئيسي لأبحاث «PhotoGuard»، في حديث خاص لـ«الشرق الأوسط»، من مدينة سان فرانسيسكو الأميركية، كيفية عمل هذا الابتكار.
خطورة إساءة الاستخدام
يؤكد هادي سلمان في حديثه لـ«الشرق الأوسط» على خطورة إساءة استخدام صور الذكاء الاصطناعي المحتملة و«أن سهولة تزييف الأحداث الكارثية أو التلاعب بالصور الشخصية تشكل تهديدات تتراوح بين تعطيل السوق والابتزاز».
وحول سؤال عن برامج الذكاء الاصطناعي التي يمكن أن يعمل من خلالها «PhotoGuard»، يقول إن ما تم تجربته يقتصر فقط على برامج ذكاء اصطناعي متوفرة عبر الإنترنت، تدعى «Stable Difussion Models» من شركة «Stability AI».
ويشدد على أهمية تبني الشركات التي تطرح برامج ذكاء الاصطناعي لهذا الابتكار.
تطبيقات «PhotoGuard»
تتعدد تطبيقات واستخدامات تقنية «PhotoGuard» حيث قد تمنع نشر الصور الكاذبة وتخفف من معلومات مضللة في قطاع الأخبار. أما في مجال إنفاذ القانون، فيمكن للتقنية ضمان بقاء صور مسرح الجريمة من دون تلاعب. أيضاً يمكن لمنصات التواصل الاجتماعي الاستفادة من «PhotoGuard» لوقف انتشار المحتوى المسيء. وفي إجابة عن سؤال حول نوع الصور التي يمكن أن تطبق عليها هذه التقنية، يقول هادي سلمان إنها يمكن أن تنجح باختلاف الأنواع، سواء أكانت لبشر حتى رسومات فنية.
تحديات تصميم «PhotoGuard»
لم يكن الجانب التقني هو التحدي الأكبر الذي واجه هادي سلمان وزملاءه أثناء تصميم «PhotoGuard» بل يقول لـ«الشرق الأوسط» إن مكافحة التلاعب بالصور «تتطلب استجابة جماعية من قبل الشركات التي تطور برامج الذكاء الاصطناعي، وإنه يجب على صناع السياسات النظر في وضع لوائح لحماية بيانات المستخدم من التلاعب بالذكاء الاصطناعي».
يؤكد هؤلاء الباحثون أنهم لن يستطيعوا إزالة خطورة تعديل الصور وسرقتها بشكل غير قانوني وأخلاقي تماماً، خاصة باستخدام برامج يمكن أن يتدرب عليها من يريد ذلك بسرعة، مثل «فوتوشوب» وغيره. إلا أن هدفهم هو جعل مسألة التعديل والتزييف باستخدام برامج الذكاء الاصطناعي أكثر صعوبة وعلى نطاق أوسع لأنها لا تحتاج إلى المعرفة المسبقة بطريقة استخدام برامج التعديل الاحترافية المتوفرة. ففي العصر الرقمي الحالي، ربما تمثل «PhotoGuard» تأكيداً على أن التكنولوجيا يمكن أن تكون المشكلة، والحل في الوقت نفسه.
الشرق الأوسط
التعليقات