الجمعة, ديسمبر 27, 2024
Homeاخبار منوعةكيف تعرف إن كانت الصورة حقيقة؟.. أم أنتجها برنامج ذكاء اصطناعيّ؟

كيف تعرف إن كانت الصورة حقيقة؟.. أم أنتجها برنامج ذكاء اصطناعيّ؟

[[article_title_text]]

صورة مزيفة رائجة زعم ناشروها أنّها لبوتين وهو يقبّل يد نظيره الصينيّ خلال زيارته الشهر الماضي إلى موسكو
(فرانس برس) – شهدت تقنيات الذكاء الاصطناعي في الآونة الأخيرة تطوّرات مبهرة جعلت الصور التي تنتجها تبدو شديدة الواقعيّة، ولاقت رواجاً واسعاً على مواقع التواصل الاجتماعي، مما أثار تساؤلات بشأن سبل كشفها.
صحيحٌ أنه حتى اليوم ما من أداة يمكن أن تجزم ما إن كانت الصورة وليدة برنامج ذكاء اصطناعيّ، إلا أنّه يمكن الاستناد إلى عناصر عدّة قد تُشير إلى استخدام هذه التقنيّة، بحسب ما أفاد خبراء استطلعت آراءهم وكالة فرانس برس بين 21 و23 مارس 2023.
وتتيح بعض برمجيات الذكاء الاصطناعي، مثل “دال-إي”، “ميدجورني” و”ستايبل ديفيوجن” و”كرايون”، توليد صور بمجرّد إدخال بعض الكلمات المفتاحية باللغة الإنكليزيّة مثل (رائد فضاء يركب حصاناً على كوكب المريخ)، وذلك باستخدام قواعد بيانات ضخمة تعزّزها أيضاً طلبات المستخدمين.
لكن كيف يمكن أن نميّز هذه الصور؟ بعض مستخدمي مواقع التواصل يلجؤون إلى تطبيقات الذكاء الاصطناعيّ لإنتاج أعمالٍ فنيّة أو صورٍ على سبيل الفكاهة، لكنّ آخرين يستخدمون هذه الأدوات لإنتاج صورٍ مرتبطة بأحداثٍ سياسيّة.
من بين هذه الصور الرائجة عبر مواقع التواصل الاجتماعي واحدة تعود للقاء الرئيس الصيني شي جينبينغ بنظيره الروسيّ فلاديمير بوتين في 20 مارس 2023، ومجموعة أخرى لمشاهد متخيّلة تُظهر الرئيس الفرنسي إيمانويل ماكرون يجمع النفايات.
وغالباً ما يعمد صانعو هذه الصور للإشارة إلى أنّها نتاج برامج ذكاء اصطناعيّ، لكنّها سرعان ما تنتشر خارج سياقها، ويصدّق البعض أنّها حقيقيّة.
وهناك أدوات عدّة لكشف حقيقة هذه الصور، وأخرى قيد التطوير، إلا أنّ النتائج التي تقدّمها ليست حاسمة، وقد تعطي نتائج غير دقيقة، بحسب تجارب قام بها صحفيو فرانس برس.
ويشرح ديفيد فيشينغر، المهندس المتخصّص في الذكاء الاصطناعيّ في جامعة فيينا للتكنولوجيا لفرانس برس، أنّ عمل الذكاء الاصطناعي لا يقوم على مجرّد اقتطاع أجزاء من صورٍ لإعادة تركيبها، إذ “يلجأ إلى ملايين بل مليارات الصور لاستخراج بيانات منها، ثمّ يعيد استخدامها لتوليد صورة جديدة تماماً”.
وبدوره يوضح فينسنت تيراسي، أحد مؤسسي شركة Draft&Goal الناشئة التي تطوّر أداة خاصة بالجامعات، تكشف المحتوى المنتج عبر الذكاء الاصطناعي، أنّ برامج الذكاء الاصطناعي تخلط الصور المتاحة لها في قاعدة البيانات ثم تفكّكها لتعيد بناء مشهد جديد تماماً، لا يمكن تتبّع العناصر المستخدمة في صناعته.
ولهذه الأسباب لا يمكن لمنصّات كشف الذكاء الاصطناعي أن تصل لنتائج حاسمة في هذه المرحلة.
لكن ماذا عن البيانات الوصفيّة (Metadata) التي تُعتبر بطاقة تعريفيّة للصورة ويمكن أن تتضمّن معلومات عن أصلها؟
“للأسف لا يمكن الاعتماد على هذه البيانات لأنّها تُحذف مباشرة عند تحميل الصورة على مواقع التواصل”، بهذه العبارة تجيب الأستاذة في جامعة فريديريك -2 في نابولي والمتخصصة في الذكاء الاصطناعيّ أناليزا فيردوليفا على سؤال فرانس برس.
العودة إلى مصدر الصورة
بحسب الخبراء، أفضل طريقة لكشف حقيقة الصورة تكمن في العثور على مصدرها الأصليّ، فقد تكون منشورة على حساب مَن صنعها مرفقة بإشارة إلى أنّها نتاج برنامج ذكاء اصطناعيّ.
وهنا يمكن استخدام البحث العكسيّ عن الصور في مختلف محرّكات البحث للوصول إلى الصفحات التي نشرت الصورة.
لقد أتاحت هذه الطريقة الوصول إلى أصل الصور التي زعم ناشروها أنّها لتوقيف الرئيس الأميركي السابق دونالد ترامب.
فقد أرشد أحد الروابط إلى تغريدة نشرها إليوت هيغينز، مؤسس موقع بيلينغات المتخصّص بالتحقيقات المفتوحة المصدر في 20 مارس 2023، يقول فيها إنّه صَنع هذه الصور باستخدام الإصدار الأخير لبرنامج “ميدجورني”.
وفي حال لم يرشد البحث إلى مصدر الصورة، يمكن أن يساعد في الوصول إلى نسخة ذات جودة أفضل تتيح التدقيق في تفاصيلها، بحثاً عن أدلّة.
إلى ذلك يمكن أن تقدّم محرّكات البحث لقطات شبيهة، مما يفتح المجال لمقارنة الصورة موضع الشكّ بصورٍ حقيقيّة من مصادر موثوقة.
على سبيل المثال، انتشرت صورة زعم ناشروها أنّها تُظهر الرئيس الروسي فلاديمير بوتين راكعاً يقبّل يد نظيره الصينيّ خلال زيارته الأخيرة إلى موسكو، إلا أنّ الصحفيّ الإيطاليّ ديفيد بوينتي أشار في حسابه على موقع تويتر أنّ الصالة التي اجتمع فيها الرئيسان في الحقيقة مختلفة تماماً عن الخلفيّة الظاهرة في الصورة، مما يثير الشكوك حولها.
قد يساعد الاطّلاع على الوصف المرافق للصورة أو تعليقات المستخدمين في معرفة ما إن كانت مصنوعة باستخدام برنامج ذكاء اصطناعيّ وأي من هذه البرامج استُخدم، فبرنامج “دال-إي” يُشتهر بالتصاميم فائقة الواقعية، و”ميد جورني” باستخدام صور المشاهير.
ويُتيح برنامج “ميدجورني” البحث عن الصّور التي ينتجها ضمن قنواته باستخدام كلمات مفتاحية.
وإن لم يكن متاحاً الوصول إلى أصل الصور، عندها يمكن التركيز على تفاصيل داخلها.
تحليل الصورة.. البحث عن علامة مائية
تعمد بعض برامج الذكاء الاصطناعي إلى ترك علامة على الصور التي تنتجها كالشّريط الملّون الذي يظهر على الصور المنتجة من خلال برنامج “دال-إي”، أو علامة القلم الملّون التي يتركها برنامج “كرايون”، أو علامة محرّك “بينغ”.
لكنّ هذه العلامات يمكن إزالتها بسهولة، بالإضافة إلى أنّ البرامج الأخرى لا تترك في الأصل علامات.
التدقيق في نقاط الصورة (pixels)
“عند الشكّ يجب التدقيق بنقاط الصورة (pixels) فهي تختلف بين الصورة الفوتوغرافيّة وتلك المولّدة باستخدام الذكاء الاصطناعي”، بحسب تينا نيكوكا المتخصّصة في معالجة الصور في مختبر الرياضيات في جامعة باريس-ساكلي لفرانس برس.
حاول صحفيو فرانس برس توليد صورة للممثّل براد بيت في باريس باستخدام برنامج “ستايبل ديفيوجن” فبدت شبيهة بالرسم الواقعيّ.
وباستخدام التعليمات نفسها أخرج برنامج “دال-إي” صورة أقرب إلى الصور الفوتوغرافيّة.
البحث عن تشوّهات
على الرغم من التطوّرات التي شهدتها هذه البرمجيات، إلا أنّ الصور التي تنتجها لا تزال تشوبها عيوبٌ وتشوّهات. وتعدّ هذه الأخطاء السبيل الأفضل لكشف هذا النوع من الصور.
من جهتها تحذّر أناليزا فيردوليفا من أنّ برمجيات الذكاء الاصطناعي تتحسّن يوماً بعد يوم ويجب ألاّ نركن فقط إلى هذه الأخطاء التي تظهر حالياً.
كانت برمجيات الذكاء الاصطناعي، وإلى غاية مارس 2023، تنتج صوراً تشوبها أخطاء وتشوّهات، على مستوى اليدين، كما يظهر في هذه الصور التي تبدو شديدة الواقعيّة باستثناء يد الشرطيّ الذي يرتدي قفازاً من ستة أصابع.
أمّا في الصور المزعومة لاعتقال ترامب فيمكن ملاحظة أنّ بعض الوجوه مغبشة وأنّ أرجل عناصر الشرطة غير متّسقة. وفي إحدى الصور يمكن أن نرى أنّ ترامب يرتدي حزاماً خاصاً بالشرطة.
“من الصعوبات التي تواجهها حالياً برمجيات الذكاء الاصطناعي إظهار الانعكاسات بشكلٍ واقعيّ. لذلك يمكن للتدقيق في الظلال والمرايا وانعكاس الأشكال على المياه أن يشكّل دليلاً على أنّ الصورة مصدرها برنامج ذكاء اصطناعيّ”، يقول فينسنت تيراسي.
ويشير تيراسي إلى أنّ التدقيق بالعيون مفيد أيضاً في هذا الإطار، إذ إنّها تظهر انعكاساً قد تشوبه أخطاء، كما يمكن رصد اختلافٍ بالشكل أو بالحجم أو باللون بين العينين، ما يمكن أن يقدّم دليلاً إضافياً.
على سبيل المثال في الصورة أدناه التي صُمّمت باستخدام برنامج ذكاء اصطناعي، وعند تكبيرها باستخدام عدسة InVid، يمكن ملاحظة اختلاف اللون بين عينيّ ماكرون وميله إلى البنيّ في حين أنّ لون عينيه في الحقيقة أزرق.
هذه البرمجيات قد تنتج أيضاً عناصر غير متّسقة مثل حجم الوجه، أو موضع الأذنين أو تشوّهات على مستوى الأقراط. ومن العناصر الأخرى التي يصعب على برمجيات الذكاء الاصطناعي أنّ تقلّدها: الشعر والأسنان.
وتشكّل النظّارات الشمسيّة تحدياً إضافياً لهذه البرمجيات، إذ تظهر أحياناً وكأنها ذائبة على وجه الأشخاص.
ويلفت الخبراء النظر إلى أنّ اعتماد برمجيات الذكاء الاصطناعي على مزج عناصر من صورٍ عدّة قد ينعكس على جودة الصورة خصوصاً على مستوى الإضاءة.
النظر إلى خلفيّة الصورة
عند التدقيق في الصورة يجب الانتباه إلى الجزء الخلفيّ منها حيث يمكن أن تختبئ بعض التشوّهات.
هذه الصورة التي جابت مواقع التواصل الاجتماعي وتظهر الرئيس الأميركي باراك أوباما والمستشارة الألمانية السابقة أنغيلا ميركل على شاطئ، تبدو شديدة الواقعيّة للوهلة الأولى، إلا أنّ التدقيق في عناصرها يثبت العكس إذ يظهر أحد الواقفين مقطوع الرجلين.
ويوضح فينسنت فيراسي أنّه كلّما ابتعدت العناصر عن وسط الصورة تزيد نسبة تعرّضها لتشوّهات.
في الصورة المتداولة لبوتين مقبّلاً يد شي جين بينغ يظهر العمود في الخلفيّة غير مستقيم، وهو عنصرٌ يضاف إلى حجم رأس بوتين الذي يبدو غير متّسق مع جسمه، كما يلفت لفرانس برس ديفيد فيشنغر. يضاف إلى ذلك التشوّه في يدي الشخص الواقف إلى يسار بوتين.
اتّباع المنطق السليم
تتضمّن الصور المولّدة باستخدام الذكاء الاصطناعي عناصر قد لا تكون مشوّهة إلا أنّها تشكّل بوجودها خطأ منطقياً، لذلك يجب اتباع المنطق السليم عند التدقيق في صورة موضع شكّ.
فهذه الصورة التي صنعها صحفيّو فرانس برس عبر برنامج “ميدجورني” من المفترض أن تظهر الممثل الأميركي براد بيت يحمل الكرواسان في العاصمة الفرنسيّة باريس، إلا أنّ الإشارة المروريّة في الخلفيّة زرقاء اللون، وهذا النوع من الإشارات غيرمستخدمٍ في الأصل في فرنسا.
إضافة إلى ذلك تبدو أصابع بيت وكأنها مقطوعة والكرواسان الذي يحمله أشبه بقطعة بلاستيك، كما تبدو الإضاءة مختلفة على الشبّاك في الخلفيّة. كلّ هذه العناصر مجتمعة تدلّ على أنّ هذه الصورة وليدة برنامج ذكاء اصطناعيّ.
كما أنّ الخطّ متعدّد الألوان أسفل اليمين يحسم أنّ الصورة صنيعة برنامج “دال-إي”.
إلى ذلك لا يبدو الشخص الظاهر في الصور شبيهاً ببراد بيت.
وفي النهاية، إذا انتشرت صورٌ تزعم وقوع حدثٍ ما (لقاء سياسيّ، تظاهرة…) وهناك شكوك حولها، يبقى من الأفضل البحث في مصادر إخباريّة موثوقة عمّا إذا كان الحدث وقع فعلاً.
وإن كان الحدث قد وقع بالفعل (مثل لقاء الرئيسين الروسي والصيني) يمكن الاستناد إلى الصور الحقيقيّة ومقاطع الفيديو التي وثّقت الحدث ومقارنتها بعناصر الصور المشكوك بأمرها.
RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Most Popular