Deepfake و چالشهای هویت دیجیتال
Deepfake و چالشهای هویت دیجیتال موضوعی است که نمیتوان با توجه به تحولات فناوری به سادگی از کنار آن عبور کرد. امروزه سایتهای اجتماعی مانند توییتر، اینستاگرام و فیسبوک بحران اطلاعات و محتوای نادرست مربوط به اخبار جعلی را هدایت میکنند؛ اما در آینده نزدیک این سایتها بهترین امید ما برای حل این مشکل خواهند بود.
اخیراً مدیران عامل توئیتر و فیسبوک برای ارائه توضیحات به کنگره آمریکا فراخوانده شدهاند. این امر Techlashing به معنی یک واکنش منفی شدید یا واکنش منفی علیه بزرگترین شرکتهای فناوری یا کارمندان یا محصولات آنها نامیده میشود.
اعضای کمیته قضایی سنا نگران تعصبات سیاسی، اعتیاد، سخنان نفرتانگیز و مهمتر از همه بحران اطلاعات غیرمجاز هستند چرا که دولتهای خارجی، نظریهپردازان توطئه و تبلیغات داخلی به راحتی الگوریتمهای اجتماعی را برای پخش اخبار جعلی از افراد جعلی با مشخصات کاربری جعلی و فاقد هویت واقعی به کار میگیرند.
Deepfake و تهدیدات پیش رو
یک سال پیش، بسیاری انتظار داشتند که با استفاده از یک فیلم کاملاً جعلی یک رسوایی سیاسی در انتخابات اخیر ایالات متحده ایجاد شود. ولی این اتفاق نیفتاد و یکی از مهمترین دلایل عدم بروز این مشکل توانایی تشخیص فیلمهای Deepfake توسط چشم است. با این حال، تصاویر Deepfake تا حدی کامل شدهاند که مردم نمیتوانند بین عکس یک فرد واقعی و یک عکس جعلی از یک شخص جعلی و بدون هویت تفاوت قائل شوند و این همان اتفاقی بود که در زمان انتخابات اتفاق افتاد.
مخالفان حزب دموکرات با استفاده از یک صفحه اجتماعی اتهامی به هانتر بایدن، پسر رئیس جمهور منتخب ایالات متحده وارد کردند. این صفحه در ظاهر به Typhoon Investigations با هدایت مارتین آسپن، تحلیلگر امنیتی سوئیسی تعلق داشت ولی در اصل یک صفحه جعلی با هویت دیجیتال ساختگی بود. اطلاعات جعلی بود. شرکت جعلی بود، تحلیلگر جعلی بود و حتی عکس پروفایل وی توسط فناوری Deepfake تولید شده است.
اساساً، این نوعی ضربه سیاسی تقویت شده با هوش مصنوعی بود که همه میترسیدند با فیلمهای جعلی عمیق انجام شود، اما این بیشتر اطلاعات متنی بود که سعی میکرد با کمک یک عکس جعلی برگرفته از Deepfake قانونی جلوه کند. همه چیز به خوبی برنامهریزی شده بود و تنها یک نقص در عکس بود که باعث شد روزنامه نگاران با دقت بیشتری به کل پرونده نگاه کنند.
به طور جداگانه، اخیراً یک کمپین اطلاعاتی طرفدار چین توسط شرکت تحقیقاتی Graphika کشف شد که آنها آن را Spamouflage Dragon نامیدند. در این کمپین کاربران جعلی با تصاویر نمایه Deepfake در توییتر و یوتیوب به دنبال تأثیرگذاری بر افکار عمومی در مورد ممنوعیتهای TikTok بودند. کاربران جعلی فیلمهای تبلیغاتی با اهداف حمایتی را گسترش میدادند.
خطر Deepfake در حال بزرگتر شدن است!
بخشی از مشکل از جایی ناشی میشود که ساخت Deepfake در حال سادهتر شدن است. ساخت Deepfake در سطح مصرفکننده و به صورت آسان Cheapfake نامیده میشود. اخیراً یک ربات Deepfake در برنامه پیامرسان تلگرام توسط شرکت اطلاعات تهدید بصری Sensity کشف شد.
این شرکت ادعا میکند که این ربات مسئول یک اکوسیستم Deepfake است که بیش از 100،000 تصویر جعلی ایجاد کرده است. این تصاویر جعلی که بر اساس تصاویر واقعی موجود ساخته میشدند افراد با هویت واقعی را به صورت برهنه نمایش میداند و برای اخاذی مورد استفاده قرار میگرفتند.
همچنین نوعی مسابقه در YouTube در حال انجام است. سازندگان Deepfake سعی میکنند با جایگزینی چهره افراد مشهور تصاویر واقعیتری ایجاد کنند و افراد بیشتری را به صفحه خود بکشانند. آخرین موارد چهره Jim Carry بازیگر را به شخصیت Joaquin Phoenix در فیلم جوکر تبدیل میکند.
در حال حاضر، جوامع بیشتر به تبعات و مسائل اجتماعی Deepfake فکر میکنند. اما جعل تولید شده توسط هوش مصنوعی در حال تبدیل شدن به یک مشکل تجاری در حال رشد است. استفاده از فناوری Deepfake در حملات مهندسی اجتماعی در حال حاضر به صورت کامل اثبات شده است.
Deepfake صوتی در حال حاضر در تماسهای تلفنی استفاده میشود که شامل استفاده از صدایی است که به نظر میرسد از طرف رئیس شما درخواست انتقال پول و موارد مشابه را ارائه میدهد و این فقط آغاز راه است.
سرقت هویت با Deepfake
در این روش، همانند انواع دیگر سرقت هویت، کلاهبرداران وانمود میکنند شخص دیگری برای دسترسی یا ایجاد حساب کاربری، محصولات یا خدمات هستند. با این حال، کشف سرقت هویت با Deepfake دشوارتر است زیرا کلاهبرداران اسناد هویتی را به خوبی جعل میکنند و یا با جعل صدای قربانی اقدامات تأیید هویت را دور میزنند.
مجرمان اینترنتی به طرق مختلفی دادهها را برای سرقت هویت عمیق جعلی جمعآوری میکنند. آنها ممکن است دستگاههایی را که از بیومتریک به ویژه تشخیص چهره برای جمعآوری دادهها استفاده میکنند، هک کنند. آنها با استفاده از شبکههای اجتماعی، نمونههای صوتی، تصویری و عکس را برای تغذیه الگوریتمهای هوش مصنوعی خود گردآوری مینمایند.
سرقت عمیق هویت میتواند اشکال مختلفی داشته باشد، از جمله:
- جعل اسناد شناسایی برای دسترسی به حسابها
- استفاده از چهره و صدای قربانی برای تغییر شماره حساب، گذرواژه و مجوزدهی به کاربران
- جعل صدای قربانی در تماس تلفنی با خانواده یا دوستانتان به منظور درخواست انتقال وجه
راهحل این فناوری، فناوری بیشتر است!
محققان در دانشگاهها و شرکتهای فناوری سخت در تلاش هستند تا تولیدات Deepfake جدید با ابزارها و رویکردهای نوظهور را با استفاده از ابزارهای کشف Deepfake تشخیص دهند. ابزار FakeCatcher دانشگاه بینگهامتون دادههای جریان خون را در چهره فیلمها رصد میکند تا واقعی یا جعلی بودن فیلم را تشخیص دهد.
همچنین دانشگاه میسوری و دانشگاه کارولینای شمالی در شارلوت در حال کار بر روی تشخیص تصویر و فیلم جعلی عمیق به صورت بلادرنگ هستند. موسسه پیشرفته علوم و فناوری کره ابزاری مبتنی بر هوش مصنوعی به نام Kaicatch برای شناسایی عکسهای تقلبی تولید شده با Deepfake ایجاد کرده است.
اما مهمتر از همه اینکه شرکتهای فناوری در حال کار بر روی این موضوع هستند. مایکروسافت اخیراً ابزار جدیدی را ارائه داده است که سعی در کشف تصاویر و فیلمهای Deepfake دارد. ابزار احراز هویت کننده (Authenticator) مایکروسافت به جای برچسبگذاری محتوای رسانهای به عنوان واقعی یا جعلی یک برآورد با یک امتیاز اطمینان برای هر مصنوع ارائه میدهد. بنابراین میتواند با دقت بالایی هویت آن را تشخیص دهد.
همچنین فیسبوک سال گذشته چالش تشخیص عمیق (Deepfake Detection Challenge) را راهاندازی کرد تا محققان را به مشکل کشف فیلمهای Deepfake بکشاند.
با هر پیشرفتی که در ایجاد Deepfake به وجود میآید، فناوری جدیدی توسعه مییابد تا میزان واقعی بودن آنها برای رایانهها را کمتر کند.
چرا شبکههای اجتماعی به فضایی امن برای واقعیت تبدیل خواهند شد؟
امروزه مشکل محتوای جعلی تولید شده توسط هوش مصنوعی با شوخی، کمدی، اطلاعات نادرست سیاسی و هجو در شبکههای اجتماعی همراه است. ما در حال حاضر در آخرین ماههایی زندگی میکنیم که تصاویر و فیلمهای تولید شده توسط رایانه توسط چشم انسان قابل تشخیص هستند.
در آینده، به معنای واقعی کلمه هیچ راهی برای تشخیص تفاوت محتوای رسانهای جعلی با محتوای واقعی وجود نخواهد داشت. فقط هوش مصنوعی قادر به شناسایی محتوای تولید شده توسط هوش مصنوعی خواهد بود.
بنابراین مسئله این است: هنگامی که فناوری تشخیص Deepfake در تئوری وجود داشته باشد، چه زمانی و کجا در عمل استفاده میشود؟
اولین و بهترین مکان در خود شبکههای اجتماعی خواهد بود. شبکههای اجتماعی مشتاق استفاده و توسعه و تکامل چنین فناوری برای شناسایی بلادرنگ رسانههای جعلی هستند. فناوری مشابه یا مرتبط قادر به بررسی واقعی بودن محتوا یا هویت دیجیتالی تولید شده در زمان واقعی خواهد بود. این فناوریها به راحتی میتوانند هویتهای جعلی را با تحلیل پیشرفته و کمک کاربران شبکههای اجتماعی شناسایی کنند.
این بدان معنا است که در آیندهای نزدیک اطلاعاتی که در شبکههای اجتماعی مانند توییتر، اینستاگرام و فیسبوک مشاهده میشوند قابل اطمینانتر خواهند بود زیرا هوش مصنوعی برای همه موارد بارگذاری شده اعمال خواهد شد. این امر اجتنابناپذیر است.
بدین ترتیب کلاهبرداران و مبلغین به رسانههای دیگر روی خواهند آورد. منابع جعلی روزنامهنگاران را با محتوای جعلی و رویکرد مهندسی اجتماعی ترغیب میکنند تا با فریب آنها دروغ چاپ کنند. کلاهبرداران با تماسهای عمیق جعلی، عکس و فیلم در حملات مهندسی اجتماعی به طور فزایندهای افراد تجاری را فریب خواهند داد.
Deepfake صنعت هویت را به چالشهای جدیدی مواجه کرده است. با توسعه این فناوری دیگر نمیتوان به راحتی به هویت دیجیتال افراد، هویت محتوا و حتی هویت اشیاء اعتماد کرد. با این حال فعالیتهای انجام شده در حوزه تشخیص هویتهای جعلی تولید شده توسط این فناوری این نوید را به ما میدهد که به زودی، با کمک هوش مصنوعی و کاربران شبکههای اجتماعی بیش از هر مکان دیگری به اطلاعاتی که در شبکهها میخوانید اعتماد خواهید کرد.
نویسنده: تورج اکبری
Link: How social media will become the most reliable source of information