تحلیلی خبری ردنا (ادیان نیوز)
جدیدترین خبرهای دینی امروز و اخبار ادیان تازه‌ترین خبرهای مذهبی مذاهب و فرقه‌ها، جدیدترین مطالب و مقالات ادیان مذاهب جریان‌‌های دینی فرقه‌های مذهبی ایران و جهان

پیام کریسمس «جعل عمیق» ملکه الیزابت جنجال‌آفرین شد

شبکه ۴ تلویزیون انگلیس پیام کریسمس دستکاری شده‌ای را از ملکه بریتانیا پخش کرده که با فناوری «جعل عمیق» ساخته شده است. انتشار این پیام جعلی بحث‌هایی را در رسانه‌های بریتانیا برانگیخته است.

به گزارش ردنا (ادیان نیوز)؛ در این ویدئوی پنج‌ دقیقه‌ای، که همزمان با ارسال پیام سالانه ملکه الیزابت دوم به مناسبت روز کریسمس منتشر شده است، وی در حال رقص و بیان اظهاراتی درباره شاهزاده هری و مگان مارکل زوج سلطنتی دیده می‌شود.

ویدئو‌های جعل عمیق ویدئوهایی هستند که در آن‌ها با استفاده از نرم‌افزارهای هوش مصنوعی فیلم‌ها به نحوی تغییر داده می‌شوند که گویا فرد در حال بیان اظهارات یا اجرای حرکاتی است که در دنیای واقعی هرگز آن‌ها را انجام نداده است. نقش فناوری جعل عمیق در دستکاری در دنیای ویدئو، تقریبا مشابه نقش فتوشاپ در دنیای تصویر به حساب می‌آید.
کانال چهار تلویزیون انگلیس گفته هدف از پخش این ویدئو ارسال «هشدار جدی» درباره تهدید خبر جعلی در عصر دیجیتال است.

یک مقام ارشد این تلویزیون گفت: «این ویدئو یادآور قدرتمندی است برای اینکه بدانیم دیگر به چشمان‌مان هم نمی‌توانیم اعتماد کنیم.»

منتقدان در سوی مقابل گفته‌اند اقدام این رسانه ممکن است باعث شود مردم تصور کنند از فناوری جعل عمیق بیش از آنچه واقعا رواج دارد، استفاده می‌شود.

سام گرگوری، کارشناس فناوری در حوزه حقوق بشر، می‌گوید: «ما هنوز ندیده‌ایم که از جعل عمیق به طور گسترده استفاده شود مگر در حمله به زنان. ما باید واقعا مراقب باشیم که مردم فکر نکنند آنچه می‌بینند قابل باور نیست. اگر کسی با این فناوری آشنا نباشند ممکن است باور کند که جعل عمیق مشکلی گسترده است.»

فناوری جعل عمیق نخستین بار در سال ۲۰۱۷ توسط کاربری ناشناس در سایت ردیت به کار گرفته شد. در آن ویدئوها، شماری از بازیگران سرشناس هالیوودی در حال برقرار کردن رابطه جنسی دیده می‌شدند.

هرچند تقلبی بودن این ویدئوها در همان ابتدا فاش شد با این حال با گذشت زمان و پیشرفت فناوری، تشخیص اصل بودن ویدئوها روز به روز سخت‌تر شده است.

عملکرد فناوری جعل عمیق مبتنی بر پردازش فیلم‌ها و تصاویر قبلی موجود از شخصیت‌ها است. هرچه میزان محتوای پیشین بیشتر باشد و بتوان از ویدئوهای بیشتری از افراد استفاده کرد، نتیجه واقعی‌تر و محتوای جعلی حقیقی‌تر به نظر خواهند آمد. از همین رو چهره‌های سیاسی یا بازیگران سینمایی که میلیون‌ها فریم ویدئو و عکس از آنها وجود دارد، هدف مناسب‌تری برای ساخت ویدئوهای تقلبی به شمار می‌آیند.

دستکاری در ویدئوها در صورت صحیح انجام شدن می‌تواند تشخیص واقعی بودن ویدئو را برای بینندگان بی‌نهایت دشوار سازد. از این جهت ناظران از مدت‌ها پیش نسبت به فراگیر شدن این فناوری و تبعات مخدوش شدن واقعیت و جعل هشدار داده‌اند.

منبع یورونیوز فارسی
به خواندن ادامه دهید
گفت‌وگو درباره مطلبی که خواندید

آدرس ایمیل شما منتشر نمی‌شود.