Deepfakes: نحوه استفاده Redditors از هوش مصنوعی برای ساخت پورنو جعلی مشهور

Deepfakes: نحوه استفاده Redditors از هوش مصنوعی برای ساخت پورنو جعلی مشهور

برهنه های مشهور Photoshopped را فراموش کنید - روند جدید فاسد ، فیلم های پورنو مشهور جعلی است که توسط یادگیری ماشین ایجاد می شود. بر Reddit ، آنها آنها را 'deepfakes' صدا می کنند. با استفاده از یک برنامه ، کمی توانایی فنی و چند فیلم با وضوح بالا از یک فرد مشهور ، هرکسی می تواند ستاره پورنو مورد علاقه خود را به بازیگر زن مورد علاقه خود تبدیل کند. این روندی است که شروع به منفجر شدن می کند و پیامدهایی فراتر از پورنوگرافی دارد.


optad_b

در یک پست مادربرد سامانتا کول در این هفته گزارش داد که جعلی های عمیق روی نقشه ایجاد شده است ، یک پورنوگرافی deepfakes - عمدتا ، اما نه به طور کامل ، پورنو ایجاد شده است. یک پوستر در آنجا ، که از طریق 'deepfakeapp' می رود ، برنامه ای ایجاد کرده تا دیگران بتوانند به راحتی فیلم های تغییر یافته خود را بسازند.

'در نهایت ، من می خواهم آن را بهبود ببخشم تا جایی که کاربران احتمالی می توانند به سادگی یک ویدیو را در رایانه خود انتخاب کنند ، یک شبکه عصبی مرتبط با یک چهره خاص را از یک کتابخانه در دسترس عموم بارگیری کنند و فیلم را با یک چهره متفاوت با فشار دادن یک دکمه ، 'برنامه deepfake به مادربرد گفت.



شاید چشمگیرترین جعل عمیق تاکنون این موارد باشد CGI Princess Leia ، از جانب Rogue One: A Star Wars Story ، که به نظر می رسد قابل مقایسه با نسخه بودجه کلان است که در واقع در فیلم ظاهر شده است. کاربری تماس گرفت Derpfake ادعا کرد که همه او 20 دقیقه طول کشیده است.

همچنین برخی از محبوب ، سرگرم کننده وجود دارد نیکولاس کیج جعلی است ظاهر شدن در subreddit. عمیق سازان نقش برجسته کیج را در آن ایفا کرده اند رویارویی به قلبش و صورتش را برداشت ... اینجا روی بدن شان کانری است جیمز باند تلنگر:

https://gfycat.com/ConfusedScratchyCowbird



اما بیشتر ، از این نرم افزار برای ایجاد پورنو وحشتناک جعلی اما کاملاً نزدیک از بازیگران و خوانندگان محبوب استفاده می شود. اما واتسون ، دیزی ریدلی ، ناتالی دورمر و کیتی پری اهداف محبوب هستند. بسیاری از جعلیات واضح است ، اما برخی از آنها موفق می شوند از دره Uncanny عبور کنند. اگر شخص شاخی هستید و به دنبال پورنو مشهور هستید ، به سختی مهم است که این deepfake 'واقعاً' کیتی پری نباشد.

کیتی پری عمیق جعلی صورت مبادله

Deepfaker با این استدلال که تمایز بین واقعی و جعلی کاملاً از هم پاشیده است از کار خود دفاع می کند به طوری که استفاده از تشبیهات از این طریق اهمیتی ندارد. اگر اشاره کنید که این یک پرش کوتاه از ماکت های پورن مشهور به انتقام جویی در از بین بردن شهرت با بازی هر یک از ما است ، آنها معتقدند اگر ابزارهای ویدیویی جعلی بسیار گسترده شوند ، از همه ایمن تر هستیم که نه ویدئو واقعی یا قابل اعتماد در نظر گرفته شده است. 'هیچ کس نمی داند که آیا شما واقعاً خودتان هستید' احتمالاً برای قربانیان بالقوه تقلبی که تصور می کنند اینقدر راحت نیست.

یکی از پوسترهای deepfakes اذعان کرد: 'آنچه ما در اینجا انجام می دهیم مفید و با افتخار نیست ، بلکه تحقیرآمیز ، مبتذل و چشم کور برای زنانی است که deepfakes روی آنها کار می کند.' اما وی ادامه داد که 'اگر هر چیزی می تواند واقعی باشد ، هیچ چیز واقعی نیست. حتی با توجه به اهمیت بیشتر این سیستم ، فیلم های جنسی خانگی مشروع که به عنوان پورنو انتقام استفاده می شوند ، قابل جعل هستند. '

وی افزود: 'اگرچه به نظر می رسد حداقل كار اخلاقی انجام این فناوری باشد ، اما من فکر می كنم بیشتر ما ترجیح می دهیم این امر در اختیار سازندگان خوش خیم پورنو باشد كه این فناوری را برای تمركز بیشتر در فرهنگ اینترنت ترسیم می كنند.'

این یک جهش بسیار بزرگ است. پورنو همیشه پیشتاز نوآوری در فن آوری بوده است - به سختی می توان در تاریخ اختراع بزرگی انجام داد که برای استمنا سازگار نشده باشد - اما این بدان معنا نیست که جامعه به طور خودکار با ویرایش صورت خود بر روی بدن دیگران راحت است .



سال ها قرار گرفتن در معرض فتوشاپ های بسیار قانع کننده ، کاربران اینترنت را آموزش داده است تا نسبت به هر تصویری که می بینند ، بدبین باشند. حتی اگر کاملاً قانع کننده به نظر برسد ، می تواند جعلی ماهرانه باشد. ما در مورد ویدیو کمتر مشکوک هستیم: فناوری ساخت جعلی تصاویر متحرک جدیدتر ، پر جنب و جوش تر و کمتر گسترش یافته است. اما این شروع به تغییر می کند و ما باید آگاهی از این فناوری جدید ناراحت کننده را به جعبه ابزار سواد رسانه ای خود اضافه کنیم. در عصر اخبار جعلی ، بدبینی بازتاب ارزشمندی است.