Connect with us

Hi, what are you looking for?

اقتصاد

أصابع وآذان مشوهة: كيف يمكنك التعرف على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي – أخبار

في عام 2024، من الواضح تمامًا أننا نعيش الآن في عصر ما بعد الحقيقة. لقد جعلت الثورة الرقمية التي جلبت وسائل التواصل الاجتماعي نشر المعلومات أسرع وأكثر سهولة من أي وقت مضى. وعلى الرغم من وجود العديد من المزايا، فإن عواقب المعلومات غير الدقيقة وغير الصحيحة والمزيفة المنتشرة على الإنترنت أصبحت أكثر خطورة.

ومع إدخال الذكاء الاصطناعي في هذه العملية، أصبح التهديد أكبر. والآن بعد أن مكّن الذكاء الاصطناعي الناس من إنشاء صور واقعية لسيناريوهات خيالية ببساطة عن طريق إدخال مطالبات نصية، لم تعد بحاجة إلى مجموعة مهارات خبير لإنتاج صور مزيفة.


وفي السنوات الأخيرة، أدى هذا التقدم إلى زيادة سريعة في عمليات التزييف العميق بشكل غير مسبوق. ويقول فرهاد أورومشيان، أستاذ علوم المعلومات بجامعة ولونجونج في دبي: “كانت هناك حوادث عديدة في الولايات المتحدة وأوروبا حيث تم استخدام صور الطلاب في المدارس لإنشاء مقاطع فيديو غير لائقة بغرض الإذلال أو الانتقام أو طلب فدية”.

ويضيف: “إن فهم ما إذا كنا نتعامل مع محتوى حقيقي أو محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي له آثار أمنية وسلامة كبيرة. ومن الأهمية بمكان الحماية من الاحتيال، وحماية السمعة الشخصية، وضمان الثقة في التفاعلات الرقمية”.






ما هي التزييفات العميقة ولماذا يجب علينا اكتشافها؟

تُعَد مقاطع الفيديو المزيفة شكلاً من أشكال الوسائط الاصطناعية حيث تُستخدم تقنيات الذكاء الاصطناعي، وخاصة خوارزميات التعلم العميق، لإنشاء محتوى واقعي ولكنه ملفق بالكامل. ويمكن لهذه التقنيات التلاعب بمقاطع الفيديو أو التسجيلات الصوتية أو الصور لجعلها تبدو وكأن الأفراد يقولون أو يفعلون أشياء لم يفعلوها في الواقع.

مع تزايد تطور التقنيات، فإن التمييز بين مقاطع الفيديو المزيفة والوسائط الحقيقية قد يشكل تحديات كبيرة، مما يثير المخاوف بشأن الخصوصية والأمن وإمكانية إساءة الاستخدام في العصر الرقمي.

يمكن استخدام هذه الصور لنشر محتوى مضلل أو زائف تمامًا، مما قد يؤدي إلى تشويه الرأي العام والتلاعب بالسرديات السياسية أو الاجتماعية. بالإضافة إلى ذلك، يمكن لتكنولوجيا الذكاء الاصطناعي تمكين إنشاء صور أو مقاطع فيديو واقعية للغاية للأفراد دون موافقتهم، مما يثير مخاوف خطيرة بشأن انتهاك الخصوصية وسرقة الهوية.

في الأسبوع الماضي فقط، واجه مالك شركة X الملياردير إيلون ماسك ردود فعل عنيفة بسبب مشاركته مقطع فيديو مزيف يظهر نائبة الرئيس الأمريكي كامالا هاريس، والذي زعم نشطاء في مجال التكنولوجيا أنه ينتهك سياسات المنصة نفسها.

وفي مثال آخر حديث في وقت سابق من هذا العام، ظهر الممثلان البارزان في بوليوود عامر خان ورانفير سينغ في مقاطع فيديو مزيفة انتشرت على الإنترنت، ويُزعم أنهما انتقدا رئيس الوزراء الهندي ناريندرا مودي لفشله في الوفاء بوعود حملته الانتخابية.

كما أصبحت الممثلة الهوليودية سكارليت جوهانسون هدفًا لإعلان مزيف غير مصرح به على ما يبدو. وهذه ليست سوى بعض الأمثلة العديدة على كيفية انتشار التزييف العميق والمعلومات المضللة على الإنترنت.

في الواقع، وصل تقدم تقنية التزييف العميق إلى نقطة حيث أصبح لدى المشاهير الآن حسابات خاصة بهم على TikTok. ويضم أحد هذه الحسابات مقاطع مزيفة لتوم كروز، حيث يقلد صوته وسلوكياته لإنشاء محتوى ترفيهي.

وتترتب على هذا آثار أخلاقية كبيرة؛ إذ إن القدرة على توليد محتوى مزيف مقنع تتحدى تصوراتنا للواقع ويمكن أن تؤدي إلى إساءة الاستخدام في سياقات مختلفة، من التشهير إلى الأنشطة الاحتيالية.

ومع تقدم تكنولوجيا الذكاء الاصطناعي، فإن اليقظة بشأن هذه القضايا سوف تساعد في حماية سلامة المعلومات وحقوق الأفراد في العصر الرقمي.

كيفية معرفة ما إذا كانت الصورة مُنشأة بواسطة الذكاء الاصطناعي

ونظراً للتطور السريع للذكاء الاصطناعي، أصبح من المستحيل تقريباً تحديد ما إذا كانت الصورة من صنع الذكاء الاصطناعي. ويقول يوهان واديا، رائد الأعمال والفنان الرقمي المقيم في الإمارات العربية المتحدة والمعروف بسلسلة أعماله الفنية الشهيرة “أبطال السطوة الخارقين” المولدة بواسطة الذكاء الاصطناعي: “أصبح التمييز بين الصور الحقيقية والصور المولدة بواسطة الذكاء الاصطناعي أمراً صعباً بشكل متزايد. وفي حين قد تحمل بعض الصور علامات خفية، فإن العديد منها يكاد يكون من المستحيل تمييزها عن الصور الحقيقية”.

ويضيف البروفيسور أورومشيان: “يعتمد الأمر على مدى تطور الأدوات المستخدمة في إنشائها. فالأدوات الباهظة الثمن يمكن أن تنتج صوراً ومقاطع فيديو يكاد يكون من المستحيل حتى على الخبراء، ناهيك عن الأفراد، اكتشافها. ولكن الشيطان يكمن في التفاصيل”.

قد يكون تحديد ما إذا كانت الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي أمرًا صعبًا للغاية، ولكن هناك العديد من الاستراتيجيات التي يمكنك استخدامها لتحديد مثل هذه الصور.

المكياج البصري: غالبًا ما يكون الفحص البصري الدقيق مفيدًا. ووفقًا للبروفيسور أورومشيان، فإن العلامات الدالة على ذلك غالبًا ما تتضمن عدم تناسق الأصابع والأذنين والخلفية المحيطة بالرأس.

الصورة: فريبيك

الصورة: فريبيك

ويضيف: “قبل بضعة أشهر، نشرت العائلة المالكة صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لكيت ميدلتون وأطفالها، والتي سرعان ما أصبحت مصدر إحراج عندما تم التعرف عليها على أنها مزيفة. وكشفت التفاصيل حول الأصابع والأذنين أن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي”.

عند فحص صورة إنسان أو حيوان، فإن الأماكن الشائعة التي يجب التحقق منها تشمل الأصابع – حجمها وشكلها ولونها مقارنة ببقية الجسم.

“بالإضافة إلى ذلك، فإن اتجاه ومحاذاة العينين، وكذلك الأذنين ومحاذاة كل منهما، والخلفية خلفهما أو الرأس، يمكن أن تقدم أدلة. ومن بين المجالات الأخرى التي يجب فحصها تفاصيل الخلفية على جانبي الجسم وبين الذراعين والساقين”، كما يوضح البروفيسور أورومشيان.

عبر المصادقة: ابحث عن التفاصيل غير العادية أو الشذوذ في الصورة، مثل النص المشوه، أو الإضاءة غير المتسقة، أو الميزات غير الطبيعية.

يقول واديا: “إن أفضل نهج هو استخدام قائمة مراجعة مفاهيمية: التشكيك في معقولية السيناريو المصور، والتفكير فيما إذا كان الشخص سيكون واقعياً في هذا الموقف، والتحقق المتبادل باستخدام محركات البحث وعمليات البحث العكسي عن الصور”.

الصورة: فريبيك

الصورة: فريبيك

ويضيف: “على الرغم من واقعيتها المفرطة، فإن الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي قد تعرض أحيانًا تفاصيل غير طبيعية، وآثارًا في الخلفية، وتناقضات في ملامح الوجه، وعدم معقولية السياق. وسيساعد هذا التحليل النقدي في تقييم صحة الصورة”.

البحث العكسي عن الصور: يقول واديا إن استخدام محركات البحث العكسي عن الصور مثل Google Images أو TinEye قد يكون مفيدًا أيضًا. من خلال البحث عن الصورة، قد تجد أصلها أو حالات أخرى تم استخدامها فيها، مما قد يساعد في تحديد ما إذا كانت قد تم إنشاؤها بواسطة الذكاء الاصطناعي.

هناك أيضًا أدوات وبرامج متخصصة مصممة للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مثل Deepware Scanner وSensity AI. تقوم هذه الأدوات بتحليل جوانب مختلفة من الصورة لتحديد العلامات المحتملة للتلاعب بالذكاء الاصطناعي.

الأنماط المتكررة: قد تعرض الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أيضًا أنماطًا أو عناصر متكررة تبدو غير طبيعية، حيث يواجه الذكاء الاصطناعي أحيانًا صعوبة في إنشاء مواد أو مشاهد معقدة وواقعية.

بالإضافة إلى ذلك، قد تكون الصور التي تبدو مثالية للغاية أو متناظرة، مع حواف غير واضحة، تم إنشاؤها بواسطة الذكاء الاصطناعي، حيث تقوم أدوات الذكاء الاصطناعي في بعض الأحيان بإنشاء صور بمستوى غير طبيعي من الدقة.

بيانات الصورة الوصفية: هناك طريقة أخرى تتمثل في تحليل البيانات الوصفية للصورة، والتي يمكن أن توفر أدلة حول أصلها. قد تتضمن البيانات الوصفية، أو بيانات EXIF، معلومات حول الأدوات المستخدمة لإنشاء الصورة أو تحريرها.

إذا أشارت البيانات الوصفية إلى أن أداة الذكاء الاصطناعي كانت متورطة، فقد يكون هذا علامة على أن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي. يقول البروفيسور أورومشيان: “أصبح تحديد الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي مجالًا قائمًا بذاته، تمامًا مثل مجال إنشاء هذه الصور”.

باعتبارها فنانة، تؤمن واديا بشدة بضرورة وجود إشارة واضحة عند إنشاء صورة بواسطة الذكاء الاصطناعي، “خاصةً إذا كان من الممكن أن تسبب ضجة أو اضطرابات بين المشاهدين”.

ويضيف: “في حين أن صور الذكاء الاصطناعي فائقة الواقعية مفيدة للغاية في مجالات مثل الإعلان، إلا أنها قد تؤدي إلى الفوضى إذا لم يتم الكشف عنها بدقة في وسائل الإعلام. ولهذا السبب من الأهمية بمكان تنفيذ القوانين التي تضمن الشفافية حول أصول مثل هذه الصور للحفاظ على ثقة الجمهور ومنع المعلومات المضللة”.

ومع ذلك، حتى يتم إيجاد إطار عمل مناسب لتنظيم التطورات السريعة في الذكاء الاصطناعي المستخدم لإنشاء مقاطع فيديو مزيفة، فإن الجمع بين الأساليب المذكورة أعلاه والحفاظ على عين ثاقبة أثناء تصفح الويب يمكن أن يزيد من فرصك في تحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

نصيحة احترافية: يمكنك استخدام هذا موقع لتحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

سوميا@khaleejtimes.com



اضف تعليقك

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

الخليج

صورة ملف. الصورة المستخدمة لأغراض توضيحية توقع المركز الوطني للأرصاد الجوية أن يكون الطقس اليوم صحواً بوجه عام وغائماً جزئياً أحياناً، مع احتمال سقوط...

دولي

أشخاص يتفقدون الدمار في موقع غارة إسرائيلية في الضاحية الجنوبية لبيروت في 20 سبتمبر 2024. تصوير: وكالة فرانس برس أسفرت غارة على معقل حزب...

دولي

مدير جهاز الخدمة السرية الأميركي بالإنابة رونالد رو يتحدث خلال مؤتمر صحفي في واشنطن العاصمة يوم الجمعة. الصورة: وكالة فرانس برس قدمت هيئة الخدمة...

الخليج

سانجاي موتيلال بارمار مع زوجته كومال. صور وفيديوهات KT: محمد سجاد انتهت رحلة طويلة وشاقة قامت بها امرأة هندية للبحث عن زوجها المفقود بنهاية...

دولي

محمد الفايد – صورة: أرشيف رويترز اعتذرت سلسلة متاجر هارودز الراقية في لندن عن مزاعم بأن مالكها السابق، رجل الأعمال المصري الملياردير محمد الفايد،...

الخليج

الصور: تم توفيرها تستعد دبي لاستضافة أول اجتماع خالٍ من الهواتف يوم الأحد الموافق 22 سبتمبر. حيث سيتم تحويل مقهى في جميرا إلى منطقة...

دولي

الصورة من وكالة فرانس برس تستخدم لأغراض توضيحية وقالت هيئة الإذاعة العامة الإسرائيلية “كان” يوم الجمعة إن نحو 150 صاروخا أطلقت من لبنان عبر...

الخليج

الصورة: ملف وكالة فرانس برس شهد إطلاق هاتف آيفون 16 برو ماكس زيادة كبيرة في أعداد المشترين الدوليين الذين يتدفقون إلى الإمارات العربية المتحدة....