شهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطوّرات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعيّة ورائجة على مواقع التواصل الاجتماعي، وهو ما أثار تساؤلات حول سبل تمييزها عن الصور الحقيقيّة.
وصحيحٌ أنه لا توجد حتى الآن أداة يمكن أن تجزم إن كانت الصورة وليدة برنامج ذكاء اصطناعيّ، إلّا أنّ عناصر عدّة قد تُشير إلى استخدام هذه التقنيّة، بحسب خبراء استطلعت وكالة فرانس برس آراءهم بين 21 و23 مارس/ آذار الماضي.
إمكانات غير محدودة
تتيح بعض برمجيات الذكاء الاصطناعي، مثل "دال-إي" و"ميدجورني" و"ستايبل ديفيوجن" و"كرايون"، توليد صور بمجرّد إدخال بعض الكلمات المفتاحية باللغة الإنكليزيّة، مثل "رائد فضاء يركب حصاناً على كوكب المريخ". حينها سيركّب البرنامج تلك الصورة مستعيناً بقواعد بيانات ضخمة من الصور.
وفيما يلجأ البعض إلى تطبيقات الذكاء الاصطناعيّ لدواعٍ فنيّة وترفيهيّة أو على سبيل الفكاهة، يعمد البعض الآخر لإنتاج صور مرتبطة بأحداث سياسيّة، ما يجعلها مادّة للتضليل.
وتنتشر هذه الصور على أنّها حقيقيّة، على الرغم من إشارة صانعيها إلى أنّها نتاج برنامج ذكاء اصطناعي.
هل من أداة خاصّة لكشف الصور؟
هناك أدوات عدّة لكشف هذه الصور وأخرى قيد التطوير، إلّا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحافيو "فرانس برس".
ويشرح المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا، ديفيد فيشينغر، لـ"فرانس برس" أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ "يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً".
لهذه الأسباب لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
العودة إلى المصدر
بحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ.
فالصور التي انتشرت في الآونة الأخيرة على أنّها لتوقيف الرئيس الأميركي السابق دونالد ترامب، نشرها أولاً مؤسّس موقع بيلينغكات، المتخصّص بالتحقيقات باستخدام المصادر المفتوحة على الإنترنت، إليوت هيغينز.
وأشار هيغينز عند نشر الصور في 20 مارس الماضي إلى أنّها ليست حقيقية بل إنّه هو الذي صمّمها.
وفي الصورة، تظهر وجوه عدد من رجال الأمن مموهة وتظهر أقدام وأذرع شرطيين هنا وهناك بطريقة غير منطقية.
صورة أخرى لاقت رواجاً على مواقع التواصل الاجتماعي زعم ناشروها أنّها تُظهر الرئيس الروسي فلاديمير بوتين راكعاً يقبّل يد نظيره الصينيّ خلال زيارته الأخيرة إلى موسكو.
لكنّ التغطية الصحافية لهذا اللقاء تُظهر أن الصالة التي اجتمع فيها الرئيسان في الحقيقة مختلفة تماماً عن تلك الظاهرة في الصورة المتداولة.
يظهر في الصورة المزيفة عمود في القاعة مكسور، وبعض الكراسي غريبة الشكل، ويبدو رأس بوتين كبيراً بشكل غير اعتيادي.
تحليل الصورة
تترك بعض برامج الذكاء الاصطناعي علامة على الصور، على غرار الشّريط الملّون على صور برنامج دال إي، وعلامة القلم الملوّن على صور برنامج كرايون.
لكنّ هذه العلامات يمكن إزالتها بسهولة. إلا أنّ البرامج الأخرى لا تترك في الأصل علامات.
وعلى الرغم من التطوّرات التي شهدتها هذه البرمجيات، إلا أنّ الصور التي تنتجها لا تزال تشوبها عيوبٌ وتشوّهات، خصوصاً على مستوى الأذنين أو اليدين. فبعض الصور تظهر شديدة الواقعيّة لولا أن التحديق فيها يُظهر مثلاً يداً من ستّة أصابع.
ومن العناصر الأخرى التي يصعب على برمجيات الذكاء الاصطناعي أنّ تقلّدها: الشعر والأسنان والنظّارات الشمسيّة، إذ تظهر أحياناً وكأنها ذائبة على وجه الأشخاص.
وينصح فينسنت تيراسي، أحد مؤسسي شركة درافت آند غول الناشئة، بالتحديق بالظلال والمرايا وانعكاس الأشكال على المياه في الصور، لأن ذلك قد يُظهر وجود عناصر غير منطقية تشير إلى أن الصورة وليدة برنامج ذكاء اصطناعي، داعياً للتركيز خصوصاً على خلفية الصورة، فكلمّا ابتعدت العناصر عن وسط الصورة تزيد نسبة تعرّضها لتشوّهات، كما يقول.
في هذا الإطار، تحذّر الأستاذة في جامعة فريديريك -2 في نابولي والمتخصصة في الذكاء الاصطناعيّ أناليزا فيردوليفا من أنّ برمجيات الذكاء الاصطناعي تتحسّن يوماً بعد يوم ويجب ألّا نركن فقط إلى هذه الأخطاء التي تظهر حالياً.
(فرانس برس)