• هشدار پلیس فدرال آمریکا در مورد پیشرفت جعل‌عمیق در ماه‌های آتی

      هشدار پلیس فدرال آمریکا در مورد پیشرفت جعل‌عمیق در ماه‌های آتی

      هشدار پلیس فدرال آمریکا در مورد پیشرفت جعل‌عمیق در ماه‌های آتی

      ظهور محتوای جعل‌عمیق که تشخیص آن برای نه تنها ماشین‌ها و بلکه انسان‌ها نیز دشوار است، چالش‌هایی را برای جوامع دموکراتیک به همراه دارد. برای پاسخگویی موثر به این چالش‌ها، سیاستگذاران در عین حالی که می‌بایست پیش‌بینی‌هایی در رابطه با روش‌های پیش‌گیری از سواستفاده‌های احتمالی از این فناوری داشته باشند، باید درک صحیحی از چگونگی آشکارسازی محتواهای جعل‌عمیق داشته باشند.

      ظهور محتوای جعل‌عمیق که تشخیص آن برای نه تنها ماشین‌ها و بلکه انسان‌ها نیز دشوار است، چالش‌هایی را برای جوامع دموکراتیک به همراه دارد. برای پاسخگویی موثر به این چالش‌ها، سیاستگذاران در عین حالی که می‌بایست پیش‌بینی‌هایی در رابطه با روش‌های پیش‌گیری از سواستفاده‌های احتمالی از این فناوری داشته باشند، باید درک صحیحی از چگونگی آشکارسازی محتواهای جعل‌عمیق داشته باشند[i].

      اکنون جعل‌های عمیق در بین مردم متداول‌تر از هر زمان دیگریست و ساخت آن‌ها دیگر نیاز به تخصص ویژه‌ای ندارد. اف‌بی‌آی در این رابطه هشدار جدی داده است و می‌گوید:

      «قطعاً در 12 تا 18 ماه آینده عوامل تخریب‌گر از محتوای تقلبی برای عملیات‌های سایبری و نفوذ در سطح بین‌المللی به صورت گسترده‌ای استفاده می‌کنند.»[ii]

      محتوای تقلبی به هرگونه محتوای دست‌کاری شده یا تولید شده در ویدیو، عکس، متن یا صدا گفته می‌شود.
      همچنین این محتواها شامل جعل‌های عمیق[1] هستند که از هوش مصنوعی برای جابجا کردن تصویر یک شخص با شخصی دیگر استفاده می‌کنند.

      اف‌بی‌آی در بیانیه‌ای که دهم مارس صادر کرد اتهاماتی را نیز به برخی کشورها چون روسیه و چین وارد کرده است: «عوامل روسی، چینی و چینی زبان از تصاویر پروفایل تقلبی استفاده می‌کنند که از شبکه‌های مولد تخاصمی[2] گرفته شده‌اند.»

      همچنین این سازمان به افزایش تعداد روزنامه‌نگاران جعلی و مقالاتی که به صورتی آنلاین منتشر می‌شوند اشاره کرده است. از آن جایی که این روزنامه‌نگاران حضور پررنگی در فضای مجازی داشتند، کلاهبرداری آنان را می‌توان با استفاده از واقعیت‌سنجی‌ پیدا کرد.

      اکنون جعل‌های عمیق در فرهنگ عامه وجود دارند و ساخت آن‌ها راحت‌تر از هر زمان دیگری است. آن‌ها به میم‌های اینترنتی[3] تبدیل شده‌اند اما شامل اطلاعات نادرست و توهین‌آمیز به ویژه در فضای سیاسی کشورها می‌توانند اثرات مخرب خودشان را نشان دهند.

      شومان گوس‌ماجودر[4]، ابرکلاهبردار سابق گوگل سال گذشته در مصاحبه با سایت اینسایدر[5] گفته است که احتمالاً جعل‌های عمیق گسترش بیش‌تری می‌یابند و در آینده نزدیک با جعل‌های عمیق کاملاً واقعی روبه‌رو خواهیم شد.

      اف‌بی‌آی همچنین اعلام کرده است که آن‌ها در اواخر سال 2019 چندین کمپین که محتوای تقلبی نشر می‌داده‌اند را شناسایی کرده‌اند و به نظر می‌رسد که تعداد آن‌ها در حال افزایش است.

      چگونه می‌توان جعل عمیق را تشخیص داد

      اف‌بی‌آی در بیانیه خود نحوه تشخیص جعل‌های عمیق را نیز به طور مفصل شرح داده است. فاصله بیش از حد بین چشم‌های فرد و همچنین حرکات سر و بالاتنه و هماهنگی بین حرکات صورت و لب از سرنخ‌های اصلی هستند.

      محققان دانشگاه بوفالو نیز وسیله‌ای را برای تشخیص جعل‌های عمیق تولید کرده‌اند و ادعا می‌کنند که تا 94 درصد موثر است و در تصاویر غیرپرتره تاثیر کم‌تری دارد.

      اف‌بی‌آی در گزارش خود مفصل توضیح داده است که افراد چگونه می‌توانند از خودشان در برابر جرایم سایبری محافظت کنند؛ به ویژه اینکه آنان نباید تصور کنند که پروفایل اشخاص در محیط آنلاین انطباق کامل با شخص مربوطه دارد. همچنین آن‌ها گفتند که کاربران هنگام ارائه اطلاعات محرمانه اینترنتی یا تلفنی باید در منابع اطلاعاتی صحت‌سنجی متعددی جستجو کرده و مراقب باشند.

      جعل عمیق در ابتدا به عنوان یک ابزار سرگرم کننده ظهور کرد و این امکان را به وجود آورد که با بهره‌گیری از فناوری هوش مصنوعی کلون‌هایی ایجاد شود که دقیقاً مانند الگوهایشان به نظر می رسند ، صحبت می کنند و عمل می کنند. با این حال ، امروزه پتانسیل سواستفاده از این ابزار در حال افزایش است که به موجب آن شخص یک کلون از چهره ای شناخته شده را ایجاد کرده و سخنان او را دستکاری می کند. در حال حاضر پژوهش‌های بسیاری در رابطه با روش‌های تشخیص این محتواها در مجامع پژوهشی مطرح شده است[iii]. اما با توجه به وجود برخی راه‌حل‌های پیشگیرانه قانونی به نظر می‌رسد بتوان در برهه حساسی که کشور در آن قرار دارد عاملیت موثرتری را در جلوگیری از اثرات مخرب این فناوری داشت.

      تهیه شده در گروه علوم و فناوری‌های نوین پژوهشگاه فضای مجازی



      [1] deepfakes
      [2] generative adversarial networks
      [3] o‌nline memes
      [4] Shuman Ghosemajumder
      [5] Insider


      [i] Pan, D., Sun, L., Wang, R., Zhang, X., & Sinnott, R. O. (2020, December). Deepfake Detection through Deep Learning. In 2020 IEEE/ACM International Conference on Big Data Computing, Applications and Technologies (BDCAT) (pp. 134-143). IEEE.
      [iii] Pan, D., Sun, L., Wang, R., Zhang, X., & Sinnott, R. O. (2020, December). Deepfake Detection through Deep Learning. In 2020 IEEE/ACM International Conference on Big Data Computing, Applications and Technologies (BDCAT) (pp. 134-143). IEEE.
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، میدان آرژانتین، خیابان بیهقی، نبش خیابان شانزدهم غربی، پلاک 20
کد پستی: 1515674311
تلفن: 86121084
پست الکترونیک: csri@majazi.ir