الأربعاء، 26 يونيو 2019

*التزييف العميق بقلم ✍د.عبدالقوي القدسي

*التزييف العميق DeepFake*
✍د.عبدالقوي القدسي
الأربعاء ٢٦ يونيو ٢٠١٩

تزييف الحقائق وتزوير الوثائق ليس غريباً على المجتمعات الإنسانية فقد اتخذت أشكالاً كثيرة عبر مراحل التاريخ ، ولكن تزييف التكنولوجيا اليوم أكثر عمقاً ، وأبلغ أثراً !!

تزييف الوثائق يترتب عليه ضياع الحقوق، بينما تزييف الأخبار ونشر الإشاعات تسهم في تشويه السمعة، وهتك الاعراض واضطراب المجتمعات .

تكنولوجيا العصر ماضية قدماً في كل الاتجاهات الإيجابية والسلبية، ولعل "تكنولوجيا الخير" إن لم تكن على قدر من الكفاءة فإن "تكنولوجيا الشر" ستضفي على المشهد في قادم الأيام قتامة، وبؤساً.

هل تتصور يوماً بأن تشاهد مقطع فيديو تظهر فيه في صورة خليعة غير لائقة؟!! وهل تتصور بأن تشاهد نفسك وأنت تلقي خطاباً، وتتحدث فيه بحديث ليس لك؟!! هل يمكن أن تتصور أن أفراداً عاشوا في القرن الماضي يتحدثون اليوم إلينا صورة وصوتاً بما لم يقولوه يوماً ؟! تلك هي تقنية DeepFake ، التزييف العميق، تقنية تجعلك في حيرة من أمرك وتتساءل: هل المتحدث في الفيديو هو "فُلان" الحقيقي أم المزيف ؟!!

في خريف 2017 نشر مستخدم باسم "DeepFakes" عدة فيديوهات مفبركة وذات محتوي إباحي على موقع "Reddit"، صورت المقاطع المنشورة مجموعة من مشاهير هوليوود بأوضاعٍ خادشة للحياء العام، الجانب المثير للدهشة في هذه القصة أن المشاهدين أكدوا أنهم لم يستطعيوا التمييز ما إذا كان المحتوى المرئي مزيفًا أم حقيقيًا.(نور علوان،التزييف العميق).

متصفح مواقع التواصل الاجتماعي "Social Media" لن يكون في مأمن من الوقوع في شِباك الأخبار المزيفة، حتى لتصبح الحقيقة هي الخيانة حتى يَثبت العكس!!

في مطلع ٢٠١٨ ظهر تطبيق بعنوان FakeApp والذي بواسطته يمكن للمستخدم لصق الوجوه على أجساد يختارها وتزييف تعبيرات وإيماءات الوجه، ولم يكن حظر التطبيق مانعاً من تطوير الفكرة والوصول إلى DeepFake  والقادم أسوأ !!

بواسطة الذكاء الاصطناعي يمكن فَبركة فيديو جديد بناءً على النسخة المُعدّلة ومطابقة صوت المتحدّث مع النص المعدّل، فترى أمامك "أوباما" على سبيل المثال بشحمه، ولحمه ونبرات صوته وإيماءاته "كأنه هو" ولكنه- في الحقيقة- ليس هو قولاً واحداً!!

لم يعد بإمكاننا الوثوق بما نراه بأعيننا، ويجب أن نكون يقظين دائمًا في مواجهة المعلومات الخاطئة ، ولكن من يريد أن يقضي كل لحظة من يومه في قراءة المعلومات أو عرضها أو تحليلها في ظلّ هذا النوع من الشكوك الدائم؟(جون لوفلر، التزوير العميق) والسؤال هنا: هل لدى كل الناس القدرة على تمييز الصورة من الحقيقية والمتشابه والمُشتبِه؟!!!

بسبب سوء الاستخدام للتكنولوجيا يمكن أن تنهار العلاقات وتزداد بُؤرُ الصراعات، ويمكن تشويه القادة والساسة ورجال الدين، ويمكن أن تضطرب الأسر وتزداد حالات الانفصال.

عما قريب ستصبح الأصوات والصور وليس الكلمات فقط عرضة للتلاعب من قِبل أي شخص لديه جهاز كمبيوتر جيّد نسبياَ. (ريجينا ،نيوورك تايمز).

لن يستطيع أحد إيقاف التكنولوجيا، ولكن يمكن ضبط إيقاعها من خلال:
١- القوانين الرادعة
٢- ترسيخ القيم والمبادئ والأخلاق الإنسانية.
٣- نشر التوعية بين الناس بأن لا يثقوا بكل ما يصل إليهم من مقاطع فيديو أو أخبار.
٤- يجب أن نتأكد من محتوى مقاطع الفيديو والصور والأصوات المرسلة ومعرفة مصدرها قبل التسليم بصحتها .
٥-عدم الإسراف في نشر مقاطع فيديو شخصية، أو صور عائلية .

هذا هو قَدَرُ الأجيال التي تعيش عصر التكنولوجيا، وقد نسب إلى العلّامة ابن القيم الجوزية القول : "النعيم لا يدرك بالنعيم" فكما أن للتكنولوجيا منافع حضارية فكذلك لها آثار تدميرية .
https://yecm.net/التزييف-العميق-deepfake/

ليست هناك تعليقات:

إرسال تعليق

ادرج تعليقك في مجلة شعراء العرب

تابعنا على فيسبوك

Labels

شريط الأخبار

ads

حكمة

في بعض الأحيان الخطوة الأولى هي الخطوة الأصعب تقدم وأخطوها فقط وليكن لديك الشجاعة الكافية لان تتبع إحساسك وحاستك السادسة.

حكمة اليوم !

التسميات

العاب

منوعات

{"widgetType": "recent posts","widgetCount": 4}

Contact us

الاسم

بريد إلكتروني *

رسالة *