يمكن إعادة لف مولدات الوجوه المزيفة بالذكاء الاصطناعي للكشف عن الوجوه الحقيقية التي تدربوا عليها

شخص مزيف الترجيع إلى شخص حقيقي

السيدة تك | Pexels ، thispersondoesnotexist.com



كم يبعد أقرب نظام شمسي

قم بتحميل الموقع هذا الشخص غير موجود وستظهر لك وجهًا بشريًا ، شبه كامل في الواقعية ولكنه مزيف تمامًا. التحديث والشبكة العصبية الموجودة خلف الموقع ستنشئ آخر ، وآخر ، وآخر. يتم إنتاج التسلسل اللامتناهي للوجوه المصممة بالذكاء الاصطناعي بواسطة شبكة خصومة توليدية (GAN) - وهو نوع من الذكاء الاصطناعي يتعلم إنتاج أمثلة واقعية ولكنها مزيفة للبيانات التي يتم التدريب عليها.

لكن مثل هذه الوجوه التي تم إنشاؤها - والتي بدأت في الظهور المستخدمة في أفلام وإعلانات CGI —قد لا تكون فريدة كما تبدو. في مقال بعنوان هذا الشخص (على الأرجح) موجود ، أظهر الباحثون أن العديد من الوجوه التي تنتجها شبكات GAN تحمل تشابهًا مذهلاً مع الأشخاص الفعليين الذين يظهرون في بيانات التدريب. يمكن للوجوه المزيفة أن تكشف بشكل فعال الوجوه الحقيقية التي تم تدريب GAN عليها ، مما يجعل من الممكن الكشف عن هوية هؤلاء الأفراد. هذا العمل هو الأحدث في سلسلة من الدراسات التي تثير الشك في الفكرة الشائعة بأن الشبكات العصبية هي صناديق سوداء لا تكشف شيئًا عما يجري في الداخل.





يقوم الناس بتوظيف وجوههم ليصبحوا مستنسخين تسويقيين بأسلوب التزييف العميق

يمكن للشخصيات المدعومة بالذكاء الاصطناعي والتي تستند إلى أشخاص حقيقيين تمثيل آلاف مقاطع الفيديو وقول أي شيء بأي لغة.

لفضح بيانات التدريب المخفية ، استخدم رايان ويبستر وزملاؤه في جامعة كاين نورماندي في فرنسا نوعًا من الهجوم يسمى هجوم العضوية ، والذي يمكن استخدامه لمعرفة ما إذا كانت بيانات معينة قد تم استخدامها لتدريب نموذج شبكة عصبية. تستفيد هذه الهجمات عادةً من الاختلافات الدقيقة بين الطريقة التي يتعامل بها النموذج مع البيانات التي تم التدريب عليها - وبالتالي شاهد آلاف المرات من قبل - والبيانات غير المرئية.

على سبيل المثال ، قد يحدد النموذج بدقة صورة غير مرئية من قبل ، ولكن بثقة أقل قليلاً من تلك التي تم التدريب عليها. يمكن لنموذج الهجوم الثاني أن يتعلم اكتشاف مثل هذه الإشارات في سلوك النموذج الأول واستخدامها للتنبؤ بوقت وجود بيانات معينة ، مثل الصورة ، في مجموعة التدريب أم لا.



مثل هذه الهجمات يمكن أن تؤدي إلى تسريبات أمنية خطيرة. على سبيل المثال ، فإن اكتشاف استخدام البيانات الطبية لشخص ما لتدريب نموذج مرتبط بمرض ما قد يكشف أن هذا الشخص مصاب بهذا المرض.

قام فريق ويبستر بتوسيع هذه الفكرة بحيث بدلاً من تحديد الصور الدقيقة المستخدمة لتدريب GAN ، قاموا بتحديد الصور في مجموعة تدريب GAN التي لم تكن متطابقة ولكن يبدو أنها تصور نفس الشخص - بمعنى آخر ، الوجوه التي لها نفس الهوية. للقيام بذلك ، أنشأ الباحثون وجوهًا باستخدام GAN ثم استخدموا AI منفصل للتعرف على الوجه لاكتشاف ما إذا كانت هوية هذه الوجوه التي تم إنشاؤها تتطابق مع هوية أي من الوجوه التي تظهر في بيانات التدريب.

كانت النتائج مذهلة. في كثير من الحالات ، وجد الفريق صورًا متعددة لأشخاص حقيقيين في بيانات التدريب التي بدت متطابقة مع الوجوه المزيفة التي تم إنشاؤها بواسطة GAN ، مما يكشف عن هوية الأفراد الذين تم تدريب الذكاء الاصطناعي عليهم.

يُظهر العمود الأيسر في كل كتلة وجوهًا تم إنشاؤها بواسطة GAN. تتبع هذه الوجوه المزيفة ثلاث صور لأشخاص حقيقيين تم التعرف عليهم في بيانات التدريب



جامعة كين نورماندي

يثير العمل بعض مخاوف الخصوصية الجادة. لدى مجتمع الذكاء الاصطناعي شعور مضلل بالأمان عند مشاركة نماذج الشبكات العصبية العميقة المدربة ، كما يقول جان كاوتز ، نائب رئيس أبحاث التعلم والإدراك في Nvidia.

من الناحية النظرية ، يمكن أن ينطبق هذا النوع من الهجوم على بيانات أخرى مرتبطة بفرد ، مثل البيانات الحيوية أو البيانات الطبية. من ناحية أخرى ، يشير ويبستر إلى أنه يمكن للأشخاص أيضًا استخدام التقنية للتحقق مما إذا كانت بياناتهم قد تم استخدامها لتدريب الذكاء الاصطناعي دون موافقتهم.

يمكن للفنانين معرفة ما إذا كان عملهم قد تم استخدامه لتدريب GAN في أداة تجارية ، كما يقول: يمكنك استخدام طريقة مثل طريقتنا كدليل على انتهاك حقوق النشر.

يمكن أيضًا استخدام العملية للتأكد من أن شبكات GAN لا تعرض البيانات الخاصة في المقام الأول. يمكن لـ GAN التحقق مما إذا كانت إبداعاتها تشبه أمثلة حقيقية في بيانات التدريب الخاصة بها ، باستخدام نفس التقنية التي طورها الباحثون ، قبل إطلاقها.

العام أصبح التزييف العميق هو السائد في عام 2020 ، بدأت الوسائط الاصطناعية للذكاء الاصطناعي بالابتعاد عن الزوايا المظلمة للإنترنت.

ومع ذلك ، فإن هذا يفترض أنه يمكنك الحصول على بيانات التدريب ، كما يقول كاوتز. لقد توصل هو وزملاؤه في Nvidia إلى طريقة مختلفة لكشف البيانات الخاصة ، بما في ذلك صور الوجوه والأشياء الأخرى والبيانات الطبية وغير ذلك ، والتي لا تتطلب الوصول إلى بيانات التدريب على الإطلاق.

اكتشف الكوكب مثل الأرض

بدلاً من ذلك ، قاموا بتطوير خوارزمية يمكنها إعادة إنشاء البيانات التي تعرض لها نموذج مدرب عكس الخطوات التي يمر بها النموذج عند معالجة تلك البيانات. خذ شبكة مدربة للتعرف على الصور: لتحديد ما هو موجود في الصورة ، تقوم الشبكة بتمريرها عبر سلسلة من طبقات الخلايا العصبية الاصطناعية. تستخرج كل طبقة مستويات مختلفة من المعلومات ، من الحواف إلى الأشكال إلى المزيد من الميزات التي يمكن التعرف عليها.

وجد فريق كاوتز أنه يمكنهم مقاطعة نموذج في منتصف هذه الخطوات وعكس اتجاهه ، وإعادة تكوين الصورة المدخلة من البيانات الداخلية للنموذج. لقد اختبروا هذه التقنية على مجموعة متنوعة من نماذج التعرف على الصور الشائعة وشبكات GAN. في أحد الاختبارات ، أظهروا أنه يمكنهم إعادة إنشاء الصور بدقة من ImageNet ، وهي واحدة من أفضل مجموعات بيانات التعرف على الصور المعروفة.

صور من ImageNet (أعلى) جنبًا إلى جنب مع إعادة إنشاء تلك الصور التي تم إنشاؤها عن طريق إعادة لف نموذج تم تدريبه على ImageNet (أسفل)

نفيديا

كما هو الحال في عمل ويبستر ، فإن الصور المعاد إنشاؤها تشبه إلى حد كبير الصور الحقيقية. يقول كاوتز ، لقد فوجئنا بالجودة النهائية.

يجادل الباحثون بأن هذا النوع من الهجوم ليس مجرد هجوم افتراضي. بدأت الهواتف الذكية والأجهزة الصغيرة الأخرى في استخدام المزيد من الذكاء الاصطناعي. بسبب قيود البطارية والذاكرة ، تتم أحيانًا معالجة نصف النماذج فقط على الجهاز نفسه وإرسالها إلى السحابة لأزمة الحوسبة النهائية ، وهو نهج يُعرف باسم الحوسبة المنقسمة. يفترض معظم الباحثين أن الحوسبة المنقسمة لن تكشف عن أي بيانات خاصة من هاتف الشخص لأنه يتم مشاركة النموذج فقط ، كما يقول كاوتز. لكن هجومه يظهر أن الأمر ليس كذلك.

يعمل كاوتز وزملاؤه الآن على ابتكار طرق لمنع النماذج من تسريب البيانات الخاصة. أردنا أن نفهم المخاطر حتى نتمكن من تقليل نقاط الضعف ، كما يقول.

على الرغم من أنهم يستخدمون تقنيات مختلفة جدًا ، إلا أنه يعتقد أن عمله وعمل ويبستر يكملان بعضهما البعض بشكل جيد. أظهر فريق ويبستر أنه يمكن العثور على البيانات الخاصة في إخراج النموذج ؛ أظهر فريق كاوتز أنه يمكن الكشف عن البيانات الخاصة بالعكس ، وإعادة تكوين المدخلات. يقول كاوتز إن استكشاف كلا الاتجاهين مهم للتوصل إلى فهم أفضل لكيفية منع الهجمات.

يخفي

التقنيات الفعلية

فئة

غير مصنف

تكنولوجيا

التكنولوجيا الحيوية

سياسة التكنولوجيا

تغير المناخ

البشر والتكنولوجيا

وادي السيليكون

الحوسبة

مجلة Mit News

الذكاء الاصطناعي

الفراغ

المدن الذكية

بلوكشين

قصة مميزة

الملف الشخصي للخريجين

اتصال الخريجين

ميزة أخبار معهد ماساتشوستس للتكنولوجيا

1865

وجهة نظري

77 Mass Ave

قابل المؤلف

ملامح في الكرم

شوهد في الحرم الجامعي

خطابات الخريجين

أخبار

انتخابات 2020

فهرس With

تحت القبه

خرطوم الحريق

قصص لانهائية

مشروع تكنولوجيا الوباء

من الرئيس

غلاف القصه

معرض الصور

موصى به