آخر الاخبار

اللواء سلطان العرادة يطالب الشركاء الإقليميين والدوليين إلى تصحيح مسار العملية السياسية في اليمن والتحرك العاجل لردع المليشيات الحوثية مليشيا الحوثي تفرض حراسة مشددة على جثث الأسرى بعد تصفيتهم جنوب اليمن والأهالي يطالبون الأمم المتحدة بالتدخل العاجل اللواء سلطان العرادة يوجه إنتقادات لاذعة للإدارة الأمريكية والمجتمع الدولي لتعاملهم الناعم مع المليشيات الحوثية ويضع بين أيديهم خيارات الحسم - عاجل السلطة المحلية بأمانة العاصمة تحذر مليشيا الحوثي من تزوير ونهب الممتلكات العامة والخاصة من الأموال والأراضي والعقارات أول رئيس يدعو لرفع هيئة تحرير الشام من قائمة الإرهاب ويعرض مساعدات عسكرية لسلطة سوريا - عاجل طلاق شراكة جديدة: 30 شركة بولندية تعتزم فتح مقرات في دولة عربية وزارة الأوقاف والإرشاد تكشف عن قائمة أسعار وتكاليف الحج للموسم 1446هـ مأرب برس يكشف أساليب وطرق المليشيات الحوثية في عسكرة جامعة صنعاء وطرق تحويلها الى ثكنات ووقود للأجندة الطائفية مؤسس الجيش الحر يكشف السر الحقيقي وراء إنهيار وهزيمة جبش بشار خلال معركة خاطفه أول بيان للمخلوع بشار الأسد بعد هروبه الى روسيا.. ماذا قال؟

التزييف العميق.. والإباحية الانتقامية.. هكذا يمكن نشر مقاطع جنسية لك أو لاحد أصدقائك
بقلم/ مأرب برس -متابعات
نشر منذ: 9 أشهر و 8 أيام
السبت 09 مارس - آذار 2024 06:58 م

 

قد تبدو مخاطر الذكاء الاصطناعي هائلة، فكل فائدة توفرها التكنولوجيا لها استخدام سلبي، ولعل إحدى المشاكل الرئيسية التي خلقها الذكاء الاصطناعي هي التزييف العميق: مقاطع الفيديو أو الصور أو الصوت التي يتم إنشاؤها بواسطة الذكاء الاصطناعي والتي يمكن تصميمها لتقليد الضحية وهو يقول أو يفعل شيئًا لم يحدث أبدًا، بحسب موقع businessinsider الأمريكى.

 

وتقوم بعض عمليات التزييف العميق بتركيب التشابه على لقطات فيديو حقيقية، بينما يتم إنشاء البعض الآخر بالكامل بواسطة الكمبيوتر، وقد وجدت دراسة أجريت عام 2019 بعنوان The State of Deepfakes by Deep Trace أن 96% من مقاطع الفيديو المزيفة العميقة كانت إباحية.

 

وقال هنري أجدر، الباحث في مجال التزييف العميق والذي شارك في تأليف هذه الدراسة، لموقع Business Insider، إنه على الرغم من أن الرقم ربما تغير، إلا أن المشكلة تظل حادة بنفس القدر، ونظرًا لأن أدوات الذكاء الاصطناعي مثل Dall-E وStable Diffusion وMidjourney أصبحت متاحة على نطاق أوسع، فقد أصبح من الأسهل على الأشخاص الذين لديهم معرفة تقنية قليلة جدًا إنشاء مقاطع مزيفة عميقة.

 

وقال أجدر: "النسبة الإجمالية أصبحت الآن أقل، لكن الحجم الإجمالي للمحتوى المزيف العميق الذي يعد إباحيًا قد انفجر"، "نحن نتحدث عن ملايين الضحايا حول العالم"، وعلى الرغم من أن المحتوى مزيف، إلا أن الإذلال والشعور بالصدمة والترهيب للضحايا حقيقي جدًا.

 

وأفادت بي بي سي نيوز أن مراهقة بريطانية انتحرت في عام 2021 بعد أن تم إنشاء صور إباحية مزيفة لها ومشاركتها من قبل طلاب آخرين من مدرستها في مجموعة سناب شات، وفي الشهر الماضي، بدأ انتشار المواد الإباحية العميقة لتايلور سويفت عبر الإنترنت، مما دفع إيلون ماسك إلى حظر عمليات البحث عن نجمة البوب على X.

 

وقد يبدو الوضع قاتمًا، ولكن هناك أدوات وأساليب متاحة يمكن أن تساعد في الحماية من تلاعب الذكاء الاصطناعي بهويتك.

 

كشف التزييف العميق

وافقت إدارة بايدن على العلامات المائية الرقمية، حيث يتم تصنيف المحتوى بوضوح على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي، كأحد الحلول، وتهدف هذه العلامات إلى رفع مستوى الوعي العام وتسهيل قيام المنصات بإزالة المحتوى المزيف الضار وإزالته.

 

فيما أعلنت كل من Google وMeta عن خطط لبدء تصنيف المواد التي تم إنشاؤها أو تعديلها بواسطة الذكاء الاصطناعي باستخدام "بيانات اعتماد رقمية" لجعل أصول المحتوى أكثر وضوحًا، وتخطط OpenAI، منشئة ChatGPT ومولد الصور DALL-E، لتضمين علامة مائية مرئية وبيانات وصفية مخفية تكشف عن تاريخ الصورة، بما يتماشى مع معايير التحالف من أجل مصدر المحتوى والأصالة (C2PA).

 

وهناك أيضًا منصات مخصصة مصممة للتحقق من أصول المواد عبر الإنترنت، حيث قامت شركة Sensity، الشركة التي تقف وراء دراسة عام 2019 حول التزييف العميق، بتطوير خدمة كشف تنبه المستخدمين عبر البريد الإلكتروني عندما يشاهدون محتوى يحتوي على بصمات أصابع تم إنشاؤها بواسطة الذكاء الاصطناعي.

 

ولكن حتى عندما تكون الصورة مزيفة بشكل واضح - حيث لا يزال معظمها يفتقر إلى العلامات المائية - فقد يظل الشخص المعني يشعر بأنه ضحية.

 

"أدوات سامة"

يُنظر إلى الأدوات الدفاعية التي تحمي الصور من التلاعب على أنها حل أقوى، على الرغم من أنها لا تزال في المراحل الأولى من التطوير، وتمنح هذه الأدوات المستخدمين خيار معالجة صورهم بإشارة غير محسوسة، والتي عند تشغيلها من خلال أي نظام يعمل بالذكاء الاصطناعي، تخلق فوضى ضبابية وغير قابلة للاستخدام.

وعلى سبيل المثال، تضيف أداة Nightshade- وهي أداة أنشأها باحثون في جامعة شيكاغو- وحدات بكسل إلى الصور التي تفسد عند تغذيتها بالذكاء الاصطناعي ولكنها تترك الصورة تبدو وكأنها مخصصة للبشر، وقال بن تشاو، أحد الباحثين، لـ NPR: "يمكنك التفكير في Nightshade على أنه إضافة حبة سم صغيرة داخل عمل فني بطريقة تحاول حرفيًا الخلط بين نموذج التدريب وما هو موجود بالفعل في الصورة".

ورغم أنها مصممة لحماية الملكية الفكرية للفنانين، إلا أنها يمكن أن تعمل على أي صورة فوتوغرافية، وقال أجدر: "هذا دفاع رائع حقًا في الخطوط الأمامية ليشعر الناس، حسنًا، أنا آمن عند تحميل الصور من عيد ميلاد صديقي في نهاية هذا الأسبوع".

 

القوانين يمكن أن تحدث فرقا

طبقت ما لا يقل عن 10 ولايات بالفعل مجموعة من الحماية القانونية لضحايا التزييف العميق، وفقًا لوكالة أسوشيتد برس، لكن القضايا البارزة الأخيرة زادت الضغط على المشرعين لردع ومعاقبة الاستخدام الضار للذكاء الاصطناعي والتزييف العميق.

وقد حظرت لجنة الاتصالات الفيدرالية المكالمات الآلية التي تم إنشاؤها بواسطة الذكاء الاصطناعي بعد إجراء مكالمات خادعة في الانتخابات التمهيدية في نيو هامبشاير، باستخدام صوت تم إنشاؤه بواسطة الذكاء الاصطناعي والذي بدا مثل جو بايدن.

 

وفي يناير، قدمت مجموعة من أعضاء مجلس الشيوخ من الحزبين الجمهوري والديمقراطي مشروع قانون فيدرالي يعرف باسم "قانون التحدي" الذي من شأنه أن يسمح للضحايا بمقاضاة أولئك الذين يقومون بإنشاء وتوزيع مقاطع جنسية عميقة لهم، مما يجعلها قضية مدنية وليست جنائية.

ولم يتم إحراز أي تقدم في مشروع القانون الذي قدمه النائب جو موريل في مايو الماضي لتجريم مشاركة المحتوى المزيف العميق، لكن الكثير من التشريعات الجديدة تأتي ضد أنصار حرية التعبير، السبب، وفقًا لهنري أجدر، هو أن البعض يرى أن الإنشاء الخاص للتزييف العميق يشبه الخيال الذي قد يكون لدى شخص ما داخل رأسه حول الإعجاب، وإذا لم يكن أحد على علم بالمحتوى الإباحي، فهل تضرر أي شخص حقًا؟

 

الردع الإجرامي

هذاكان له تأثير على التشريعات في المملكة المتحدة، حيث جعل قانون السلامة عبر الإنترنت من غير القانوني توزيع المواد الإباحية العميقة - ولكن ليس إنشائها، ويقول أجدر: "حجتي المضادة هي أنك إذا كنت تنشئ هذا المحتوى، فأنت تجلب إلى الوجود شيئًا يمكن مشاركته بطريقة لا يمكن مشاركة الخيال فيها حقًا".

 

على الرغم من صعوبة مقاضاته، فإن تجريم المواد الإباحية العميقة لا يزال يمثل رادعًا مهمًا، من وجهة نظره. يقول أجدر إن بعض الأشخاص يستخدمون أدوات الذكاء الاصطناعي لإنشاء محتوى لاستهلاكهم الخاص. ومع ذلك، يضيف أن التأكد من إدراكهم أن هذا سلوك إجرامي أمر مهم لردع أولئك الذين قد يكونون مجرد فضوليين.

 

ويمكن للحكومات أيضًا ممارسة الضغوط على مزودي محركات البحث، ومطوري أدوات الذكاء الاصطناعي، ومنصات التواصل الاجتماعي حيث يتم توزيع المحتوى، وفي الهند، دفعت فضيحة الإباحية العميقة التي تورطت فيها ممثلات بوليوود الحكومة إلى تسريع التشريعات والضغط على شركات التكنولوجيا الكبرى لمنع انتشار المحتوى الناتج عن الذكاء الاصطناعي عبر الإنترنت.

ويعترف أجدر قائلاً: "لا ينبغي لنا أن نخدع أنفسنا بالقول إنه من الممكن إزالة المشكلة بالكامل". "أفضل ما يمكننا فعله، من وجهة نظري، هو تقديم أكبر قدر ممكن من الاحتكاك بحيث يتعين عليك أن تكون متعمدًا بشكل لا يصدق في محاولة إنشاء هذا المحتوى."

 

 المصدر / اليوم السابع