قسمت تاریک دیپ فیکس: چگونه بازیگران مخرب از رسانه های مصنوعی برای دستکاری و فریب استفاده می کنند
به طور خلاصه
Deepfakes، فناوری ای که امکان ایجاد نمایش های واقعی از چهره ها، صداها و سایر ویژگی ها را فراهم می کند، می تواند برای هنر، سرگرمی و آموزش مفید باشد.
دیپ فیک چیست؟
اصطلاح «دیپفیک» یک فرآیند فنآوری است که رسانههای مصنوعی بسیار واقعی را، معمولاً به شکل صدا، عکس یا ویدیو، با استفاده از هوش مصنوعی (AI)، بهویژه الگوریتمهای یادگیری عمیق و شبکههای متخاصم مولد (GAN) ایجاد میکند. به لطف آموزش این الگوریتمها بر روی مجموعه دادههای بزرگ، دیپفیکها میتوانند اطلاعات کاملاً جدید و اغلب گمراهکننده را با دستکاری یا قرار دادن محتوای بصری و صوتی از قبل موجود تولید کنند.
با استفاده از این فناوری، چهرهها، صداها و سایر ویژگیهای متمایز ممکن است بهطور یکپارچه تغییر کنند تا بازنماییهای واقعی ایجاد شود که تشخیص آنها از مطالب واقعی دشوار باشد. دیپ فیک برای هنر، سرگرمی و آموزش مفید است، اما خطرات جدی برای انتشار اطلاعات نادرست، نقض حریم خصوصی، و شاید برای بدنام کردن افراد به همراه دارد.
عکس: Vimeo
با محبوبیت روزافزون فناوری دیپ فیک، پلتفرم های بیشتری برای ایجاد این ویدیوها و تصاویر تغییر یافته در حال ظهور هستند. در زیر فهرستی از پلتفرمهای محبوب دیپفیک وجود دارد که گستره این فناوری را نشان میدهد، از تعویض چهره ساده در GIF تا دستکاری پیشرفته ویدیو، که منعکسکننده تطبیقپذیری و استفادههای بالقوه دیپفیک است.
FaceApp
FaceApp که به خاطر ویژگیهای تغییر چهرهاش شناخته میشود، به کاربران اجازه میدهد تا فیلترهای مختلفی را برای تغییر ظاهر خود اعمال کنند، مانند افزایش سن یا تغییر جنسیت، و یک رابط کاربر پسند ارائه میدهد.
ZAO
یک برنامه دیپ فیک چینی که به دلیل توانایی خود در جایگزینی سریع و با دقت بالا چهره ها در کلیپ های ویدیویی مورد توجه قرار گرفت. ZAO ابزارهای ساده ای را برای ایجاد دیپ فیک شخصی سازی شده در اختیار کاربران قرار می دهد.
تغییر شکل
یک برنامه تلفن همراه که برای تعویض چهره در کلیپ های ویدیویی کوتاه و GIF طراحی شده است. Reface طیف گستردهای از محتوا، از جمله صحنههای فیلم محبوب و تصاویر افراد مشهور را ارائه میدهد که ایجاد محتوای سرگرمکننده را آسان میکند.
DeepFaceLab
یک پلت فرم پیشرفته تر برای ایجاد دیپ فیک، DeepFaceLab منبع باز است و برای کاربران باتجربه ای طراحی شده است که می خواهند پروژه های دیپ فیک پیچیده ایجاد کنند. این امکان دستکاری دقیق چهره ها را در ویدیوها فراهم می کند.
وومبو
متخصص در همگام سازی لب، Wombo به کاربران این امکان را می دهد که ویدیوهایی ایجاد کنند که در آن چهره ها برای آواز خواندن یا صحبت کردن متحرک هستند. این پلتفرم به طور گسترده برای تولید محتوای طنز و سرگرم کننده استفاده می شود.
وب دیپ فیکس
یک سرویس مبتنی بر وب، Deepfakes Web برای سهولت استفاده طراحی شده است. کاربران می توانند ویدیوها و تصاویر را برای تولید محتوای دیپ فیک بدون نیاز به مهارت های فنی پیشرفته آپلود کنند.
استودیو دیپ فیک
استودیو Deepfake یک پلتفرم جامع برای ایجاد ویدیوهای دیپ فیک، ابزارهای مختلفی را برای تعویض چهره و دستکاری محتوای ویدیو ارائه می دهد. هم به کاربران مبتدی و هم برای کاربران با تجربه تر پاسخ می دهد.
آیا دیپ فیک خطر دارد؟
در واقع، دستیابی به فناوری مورد نیاز برای تولید دیپفیک بسیار آسان است و احتمال زیادی وجود دارد که از آن برای اطلاعات نادرست، اطلاعات نادرست سیاسی، تقلید از رسانههای اجتماعی و جنایت استفاده شود. عوامل تهدید و سایر افراد جنایتکار ممکن است از این مطالب غیرواقعی، از جمله، برای جعل داستان، تهدید افراد، یا ظاهر شدن به عنوان افراد شناخته شده به منظور ارتکاب کلاهبرداری یا آسیب رساندن به شهرت افراد استفاده کنند.
موارد عملی دیپ فیک های مخرب
تام کروز دیپ فیک
ویدیوهای Deepfake تام کروز در TikTok یکی از شناخته شده ترین و جذاب ترین نمونه های رسانه ای است که به طور مصنوعی تولید شده است. میلیونها نفر این ویدیوها را تماشا کردند، که چهره کروز دقیقاً بر روی بدن شخص دیگری قرار داده شده است تا محتوای آزاردهندهای واقعی ایجاد کند.
PSA اوباما با جردن پیل
کارگردان و کمدین جردن پیل با BuzzFeed برای تولید ویدئویی که در آن صداپیشگی رئیس جمهور سابق باراک اوباما را بر عهده داشت، همکاری کرد. دیپ فیک خطرات احتمالی در حوزه سیاسی را با نشان دادن چقدر ساده بودن تولید مطالب نادرست با استفاده از رسانه های مصنوعی برجسته کرد.
مارک زاکربرگ دیپ فیک به عنوان تفسیر اجتماعی
ویدیوی مارک زاکربرگ، مدیر عامل فیس بوک، توسط هنرمند بیل پوستر ساخته شده است تا نشان دهد که چگونه می توان از رسانه های اجتماعی به راحتی سوء استفاده کرد. در دیپ فیک، زاکربرگ در مورد مالکیت فیس بوک بر داده های کاربران صحبت کرد و توجه را به اختلاف بر سر مدیریت این شرکت در زمینه مطالب گمراه کننده جلب کرد.
کلاهبرداری های رمزنگاری
دیپ فیک نیز به طور گسترده در فضای رمزنگاری استفاده می شود. به عنوان مثال، در 7 فوریه 2024، صفحه توییتر CertiKSkynetAlert هشداری در مورد کلاهبرداری با دیپ فیک ویتالیک بوترین ارسال کرد:
آیا راهی برای توقف استفاده از دیپ فیک وجود دارد؟
فناوریهایی که میتوانند دیپفیکها را شناسایی کنند یا امکان تأیید محتوای واقعی را فراهم کنند، میتوانند برای مقابله با دیپفیکهای مخرب استفاده شوند. رسانه های جعلی را می توان با فناوری تشخیص بدون نیاز به مقایسه با مواد اصلی و بدون تغییر تشخیص داد. یادگیری ماشینی نوعی از هوش مصنوعی است که اغلب توسط این فناوری ها استفاده می شود. برای آموزش الگوریتم ها از داده های منابع رسانه ای واقعی و تقلبی معتبر استفاده می شود. از جمله تکنیکها میتوان به بینظمیهای چهره یا صدا، نشانههایی از فرآیند ایجاد دیپفیک و تنوع در رنگ اشاره کرد.
سلب مسئولیت
در خط با دستورالعمل های پروژه اعتماد، لطفاً توجه داشته باشید که اطلاعات ارائه شده در این صفحه به عنوان مشاوره حقوقی، مالیاتی، سرمایه گذاری، مالی یا هر شکل دیگری در نظر گرفته نشده است و نباید تفسیر شود. مهم است که فقط در موردی سرمایه گذاری کنید که توانایی از دست دادن آن را دارید و در صورت شک و تردید به دنبال مشاوره مالی مستقل باشید. برای کسب اطلاعات بیشتر، پیشنهاد می کنیم به شرایط و ضوابط و همچنین صفحات راهنمایی و پشتیبانی ارائه شده توسط صادرکننده یا تبلیغ کننده مراجعه کنید. MetaversePost متعهد به گزارش دقیق و بی طرفانه است، اما شرایط بازار بدون اطلاع قبلی ممکن است تغییر کند.
درباره نویسنده
ویکتوریا نویسنده ای در زمینه موضوعات مختلف فناوری از جمله Web3.0، هوش مصنوعی و ارزهای دیجیتال. تجربه گسترده او به او اجازه می دهد تا مقالات روشنگری برای مخاطبان گسترده تر بنویسد.
مقالات بیشترویکتوریا نویسنده ای در زمینه موضوعات مختلف فناوری از جمله Web3.0، هوش مصنوعی و ارزهای دیجیتال. تجربه گسترده او به او اجازه می دهد تا مقالات روشنگری برای مخاطبان گسترده تر بنویسد.