Connect with us

Hi, what are you looking for?

اقتصاد

أصابع وآذان مشوهة: كيف يمكنك التعرف على الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على وسائل التواصل الاجتماعي – أخبار

في عام 2024، من الواضح تمامًا أننا نعيش الآن في عصر ما بعد الحقيقة. لقد جعلت الثورة الرقمية التي جلبت وسائل التواصل الاجتماعي نشر المعلومات أسرع وأكثر سهولة من أي وقت مضى. وعلى الرغم من وجود العديد من المزايا، فإن عواقب المعلومات غير الدقيقة وغير الصحيحة والمزيفة المنتشرة على الإنترنت أصبحت أكثر خطورة.

ومع إدخال الذكاء الاصطناعي في هذه العملية، أصبح التهديد أكبر. والآن بعد أن مكّن الذكاء الاصطناعي الناس من إنشاء صور واقعية لسيناريوهات خيالية ببساطة عن طريق إدخال مطالبات نصية، لم تعد بحاجة إلى مجموعة مهارات خبير لإنتاج صور مزيفة.


وفي السنوات الأخيرة، أدى هذا التقدم إلى زيادة سريعة في عمليات التزييف العميق بشكل غير مسبوق. ويقول فرهاد أورومشيان، أستاذ علوم المعلومات بجامعة ولونجونج في دبي: “كانت هناك حوادث عديدة في الولايات المتحدة وأوروبا حيث تم استخدام صور الطلاب في المدارس لإنشاء مقاطع فيديو غير لائقة بغرض الإذلال أو الانتقام أو طلب فدية”.

ويضيف: “إن فهم ما إذا كنا نتعامل مع محتوى حقيقي أو محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي له آثار أمنية وسلامة كبيرة. ومن الأهمية بمكان الحماية من الاحتيال، وحماية السمعة الشخصية، وضمان الثقة في التفاعلات الرقمية”.






ما هي التزييفات العميقة ولماذا يجب علينا اكتشافها؟

تُعَد مقاطع الفيديو المزيفة شكلاً من أشكال الوسائط الاصطناعية حيث تُستخدم تقنيات الذكاء الاصطناعي، وخاصة خوارزميات التعلم العميق، لإنشاء محتوى واقعي ولكنه ملفق بالكامل. ويمكن لهذه التقنيات التلاعب بمقاطع الفيديو أو التسجيلات الصوتية أو الصور لجعلها تبدو وكأن الأفراد يقولون أو يفعلون أشياء لم يفعلوها في الواقع.

مع تزايد تطور التقنيات، فإن التمييز بين مقاطع الفيديو المزيفة والوسائط الحقيقية قد يشكل تحديات كبيرة، مما يثير المخاوف بشأن الخصوصية والأمن وإمكانية إساءة الاستخدام في العصر الرقمي.

يمكن استخدام هذه الصور لنشر محتوى مضلل أو زائف تمامًا، مما قد يؤدي إلى تشويه الرأي العام والتلاعب بالسرديات السياسية أو الاجتماعية. بالإضافة إلى ذلك، يمكن لتكنولوجيا الذكاء الاصطناعي تمكين إنشاء صور أو مقاطع فيديو واقعية للغاية للأفراد دون موافقتهم، مما يثير مخاوف خطيرة بشأن انتهاك الخصوصية وسرقة الهوية.

في الأسبوع الماضي فقط، واجه مالك شركة X الملياردير إيلون ماسك ردود فعل عنيفة بسبب مشاركته مقطع فيديو مزيف يظهر نائبة الرئيس الأمريكي كامالا هاريس، والذي زعم نشطاء في مجال التكنولوجيا أنه ينتهك سياسات المنصة نفسها.

وفي مثال آخر حديث في وقت سابق من هذا العام، ظهر الممثلان البارزان في بوليوود عامر خان ورانفير سينغ في مقاطع فيديو مزيفة انتشرت على الإنترنت، ويُزعم أنهما انتقدا رئيس الوزراء الهندي ناريندرا مودي لفشله في الوفاء بوعود حملته الانتخابية.

كما أصبحت الممثلة الهوليودية سكارليت جوهانسون هدفًا لإعلان مزيف غير مصرح به على ما يبدو. وهذه ليست سوى بعض الأمثلة العديدة على كيفية انتشار التزييف العميق والمعلومات المضللة على الإنترنت.

في الواقع، وصل تقدم تقنية التزييف العميق إلى نقطة حيث أصبح لدى المشاهير الآن حسابات خاصة بهم على TikTok. ويضم أحد هذه الحسابات مقاطع مزيفة لتوم كروز، حيث يقلد صوته وسلوكياته لإنشاء محتوى ترفيهي.

وتترتب على هذا آثار أخلاقية كبيرة؛ إذ إن القدرة على توليد محتوى مزيف مقنع تتحدى تصوراتنا للواقع ويمكن أن تؤدي إلى إساءة الاستخدام في سياقات مختلفة، من التشهير إلى الأنشطة الاحتيالية.

ومع تقدم تكنولوجيا الذكاء الاصطناعي، فإن اليقظة بشأن هذه القضايا سوف تساعد في حماية سلامة المعلومات وحقوق الأفراد في العصر الرقمي.

كيفية معرفة ما إذا كانت الصورة مُنشأة بواسطة الذكاء الاصطناعي

ونظراً للتطور السريع للذكاء الاصطناعي، أصبح من المستحيل تقريباً تحديد ما إذا كانت الصورة من صنع الذكاء الاصطناعي. ويقول يوهان واديا، رائد الأعمال والفنان الرقمي المقيم في الإمارات العربية المتحدة والمعروف بسلسلة أعماله الفنية الشهيرة “أبطال السطوة الخارقين” المولدة بواسطة الذكاء الاصطناعي: “أصبح التمييز بين الصور الحقيقية والصور المولدة بواسطة الذكاء الاصطناعي أمراً صعباً بشكل متزايد. وفي حين قد تحمل بعض الصور علامات خفية، فإن العديد منها يكاد يكون من المستحيل تمييزها عن الصور الحقيقية”.

ويضيف البروفيسور أورومشيان: “يعتمد الأمر على مدى تطور الأدوات المستخدمة في إنشائها. فالأدوات الباهظة الثمن يمكن أن تنتج صوراً ومقاطع فيديو يكاد يكون من المستحيل حتى على الخبراء، ناهيك عن الأفراد، اكتشافها. ولكن الشيطان يكمن في التفاصيل”.

قد يكون تحديد ما إذا كانت الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي أمرًا صعبًا للغاية، ولكن هناك العديد من الاستراتيجيات التي يمكنك استخدامها لتحديد مثل هذه الصور.

المكياج البصري: غالبًا ما يكون الفحص البصري الدقيق مفيدًا. ووفقًا للبروفيسور أورومشيان، فإن العلامات الدالة على ذلك غالبًا ما تتضمن عدم تناسق الأصابع والأذنين والخلفية المحيطة بالرأس.

الصورة: فريبيك

الصورة: فريبيك

ويضيف: “قبل بضعة أشهر، نشرت العائلة المالكة صورة تم إنشاؤها بواسطة الذكاء الاصطناعي لكيت ميدلتون وأطفالها، والتي سرعان ما أصبحت مصدر إحراج عندما تم التعرف عليها على أنها مزيفة. وكشفت التفاصيل حول الأصابع والأذنين أن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي”.

عند فحص صورة إنسان أو حيوان، فإن الأماكن الشائعة التي يجب التحقق منها تشمل الأصابع – حجمها وشكلها ولونها مقارنة ببقية الجسم.

“بالإضافة إلى ذلك، فإن اتجاه ومحاذاة العينين، وكذلك الأذنين ومحاذاة كل منهما، والخلفية خلفهما أو الرأس، يمكن أن تقدم أدلة. ومن بين المجالات الأخرى التي يجب فحصها تفاصيل الخلفية على جانبي الجسم وبين الذراعين والساقين”، كما يوضح البروفيسور أورومشيان.

عبر المصادقة: ابحث عن التفاصيل غير العادية أو الشذوذ في الصورة، مثل النص المشوه، أو الإضاءة غير المتسقة، أو الميزات غير الطبيعية.

يقول واديا: “إن أفضل نهج هو استخدام قائمة مراجعة مفاهيمية: التشكيك في معقولية السيناريو المصور، والتفكير فيما إذا كان الشخص سيكون واقعياً في هذا الموقف، والتحقق المتبادل باستخدام محركات البحث وعمليات البحث العكسي عن الصور”.

الصورة: فريبيك

الصورة: فريبيك

ويضيف: “على الرغم من واقعيتها المفرطة، فإن الصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي قد تعرض أحيانًا تفاصيل غير طبيعية، وآثارًا في الخلفية، وتناقضات في ملامح الوجه، وعدم معقولية السياق. وسيساعد هذا التحليل النقدي في تقييم صحة الصورة”.

البحث العكسي عن الصور: يقول واديا إن استخدام محركات البحث العكسي عن الصور مثل Google Images أو TinEye قد يكون مفيدًا أيضًا. من خلال البحث عن الصورة، قد تجد أصلها أو حالات أخرى تم استخدامها فيها، مما قد يساعد في تحديد ما إذا كانت قد تم إنشاؤها بواسطة الذكاء الاصطناعي.

هناك أيضًا أدوات وبرامج متخصصة مصممة للكشف عن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، مثل Deepware Scanner وSensity AI. تقوم هذه الأدوات بتحليل جوانب مختلفة من الصورة لتحديد العلامات المحتملة للتلاعب بالذكاء الاصطناعي.

الأنماط المتكررة: قد تعرض الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي أيضًا أنماطًا أو عناصر متكررة تبدو غير طبيعية، حيث يواجه الذكاء الاصطناعي أحيانًا صعوبة في إنشاء مواد أو مشاهد معقدة وواقعية.

بالإضافة إلى ذلك، قد تكون الصور التي تبدو مثالية للغاية أو متناظرة، مع حواف غير واضحة، تم إنشاؤها بواسطة الذكاء الاصطناعي، حيث تقوم أدوات الذكاء الاصطناعي في بعض الأحيان بإنشاء صور بمستوى غير طبيعي من الدقة.

بيانات الصورة الوصفية: هناك طريقة أخرى تتمثل في تحليل البيانات الوصفية للصورة، والتي يمكن أن توفر أدلة حول أصلها. قد تتضمن البيانات الوصفية، أو بيانات EXIF، معلومات حول الأدوات المستخدمة لإنشاء الصورة أو تحريرها.

إذا أشارت البيانات الوصفية إلى أن أداة الذكاء الاصطناعي كانت متورطة، فقد يكون هذا علامة على أن الصورة تم إنشاؤها بواسطة الذكاء الاصطناعي. يقول البروفيسور أورومشيان: “أصبح تحديد الصور ومقاطع الفيديو التي تم إنشاؤها بواسطة الذكاء الاصطناعي مجالًا قائمًا بذاته، تمامًا مثل مجال إنشاء هذه الصور”.

باعتبارها فنانة، تؤمن واديا بشدة بضرورة وجود إشارة واضحة عند إنشاء صورة بواسطة الذكاء الاصطناعي، “خاصةً إذا كان من الممكن أن تسبب ضجة أو اضطرابات بين المشاهدين”.

ويضيف: “في حين أن صور الذكاء الاصطناعي فائقة الواقعية مفيدة للغاية في مجالات مثل الإعلان، إلا أنها قد تؤدي إلى الفوضى إذا لم يتم الكشف عنها بدقة في وسائل الإعلام. ولهذا السبب من الأهمية بمكان تنفيذ القوانين التي تضمن الشفافية حول أصول مثل هذه الصور للحفاظ على ثقة الجمهور ومنع المعلومات المضللة”.

ومع ذلك، حتى يتم إيجاد إطار عمل مناسب لتنظيم التطورات السريعة في الذكاء الاصطناعي المستخدم لإنشاء مقاطع فيديو مزيفة، فإن الجمع بين الأساليب المذكورة أعلاه والحفاظ على عين ثاقبة أثناء تصفح الويب يمكن أن يزيد من فرصك في تحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

نصيحة احترافية: يمكنك استخدام هذا موقع لتحديد الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي.

سوميا@khaleejtimes.com



اضف تعليقك

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

اخر الاخبار

بيروت/القدس قتلت إسرائيل قائدا بارزا في حزب الله وشخصيات بارزة أخرى في الحركة اللبنانية في غارة جوية على بيروت يوم الجمعة، مما أدى إلى...

الخليج

قالت شرطة دبي، اليوم السبت، إن مركز شرطة نايف ضبط في نطاق اختصاصه نحو 3800 دراجة كهربائية وسكوتر ودراجة هوائية كهربائية، بسبب مخالفات مختلفة،...

اقتصاد

صورة الملف أعلنت سوق أبوظبي للأوراق المالية، الجمعة، أن الشركات المدرجة في السوق ملزمة الآن بالإفصاح عن جدول أعمال وجدول اجتماعات مجالس إدارتها –...

منوعات

الصور: تم توفيرها من الصعب أن تجد روايات مصورة تدور أحداثها في الخليج. أما الروايات المصورة التي تبتكرها النساء فهي أكثر غرابة. لكن آنا...

اخر الاخبار

بعد عام واحد فقط من الإعلان عن تقارب العلاقات الدبلوماسية مع إسرائيل، أوقف الزعيم الفعلي للمملكة العربية السعودية الحديث عن التطبيع مع تهديد الحرب...

دولي

صورة وكالة فرانس برس المستخدمة لأغراض توضيحية أعلنت هيئة الكريكيت الباكستانية يوم الجمعة عن جدول منقح لسلسلة مباريات ستقام ضد إنجلترا الشهر المقبل، مما...

الخليج

صورة ملف. الصورة المستخدمة لأغراض توضيحية توقع المركز الوطني للأرصاد الجوية أن يكون الطقس اليوم صحواً بوجه عام وغائماً جزئياً أحياناً، مع احتمال سقوط...

دولي

أشخاص يتفقدون الدمار في موقع غارة إسرائيلية في الضاحية الجنوبية لبيروت في 20 سبتمبر 2024. تصوير: وكالة فرانس برس أسفرت غارة على معقل حزب...