سه هزار
Advertisement
جدیدترین مطالب
Article Image
فصلنامه «گام سوم» شماره ۳

در این شماره نیز مقالاتی متنوع در موضوعات اقتصاد، آینده‌پژوهی، خانواده به همراه بخش‌های نوشتار، سیاست و پرونده‌ای با عنوان «آینده‌ای قمر در عقرب» و بخش ضمیمه نوروزی با عنوان «بزرگ شدن در خاندان مرداک» چاپ شده است.

Article Image
خطرناک‌ترین افراد اینترنت در سال ۲۰۲۴

از ایلان ماسک و دونالد ترامپ گرفته تا هکرهای دولتی و کلاهبرداران رمزارزی، سال ۲۰۲۴ سالی بود که عوامل آشوب آنلاین قدرت بیشتری به‌دست آوردند. همان‌طور که هر سال انجام می‌دهیم، WIRED فهرستی از خطرناک‌ترین افراد، گروه‌ها و سازمان‌های اینترنتی سال تهیه کرده است.

Article Image
تسلا در آستانه فروپاشی است!

این یک اغراق نیست. اما باید پرسید: این موضوع چه تأثیری بر شرکت مشهور او یعنی تسلا دارد؟ بسیاری از شما که این مطلب را می‌خوانید، شاید مالک خودروهای تسلا باشید، یا سهام آن را داشته باشید، یا حتی حساب‌های بازنشستگی و پس‌اندازی داشته باشید که در تسلا سرمایه‌گذاری کرده‌اند. صادقانه بگویم، به نظر من باید هرچه سریع‌تر همه‌ی آن را بفروشید، چون فقط سیاست‌های ماسک نیست که این غول خودروسازی را به سوی سقوط می‌کشاند.

Article Image
مدرسه، شغل، روابط… یافتن «تناسب» خوب دشوار است

مطالعه‌ای بر روی متقاضیان دانشکده‌های پزشکی نشان می‌دهد که شفافیت می‌تواند تصمیم‌گیری را بهبود بخشد. بخش مهمی از ایجاد این تطابق خوب، «اطلاعات پنهان»ی است که هر یک از طرفین گاهی از دیگری پنهان می‌کنند. در واقع، تحقیقات جدید نشان می‌دهد که وقتی یکی از طرفین یا هر دو به این اطلاعات دسترسی بیشتری داشته باشند، اغلب تطابق بهتری حاصل می‌شود.

پربازدیدترین مطالب
Article Image
هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟

اگر خوش‌شانس باشیم، فناوری‌های جدید فقط باعث سردرگمی مختصری می‌شوند. وگرنه، حوزه سیاسی ما می‌تواند برای همیشه تغییر کند.

Article Image
انواع هوش، کاربردهای هوش هیجانی و تقویت آن در کودکان

ین مطلب نگاهی دارد به انواع هوش و نقش مهم آنها در زندگی روزمره و توانایی‌های شناختی انسان. همچنین مروری بر هوش هیجانی و کاربردها و روش‌های تقویت آن در کودکان.

Article Image
کاهش هدررفت غذا با اپلیکیشن موبایلی

اگرچه این اپلیکیشن غذای باقی‌مانده‌ی رستوران‌ها را ارزان در اختیار کاربران قرار می‌دهد، اما همچنان ابهاماتی درباره‌ی میزان واقعی کاهش هدررفت و استفاده‌ی تجاری برخی کسب‌وکارها از این سیستم وجود دارد.

...

نویسنده: آنا لویی ساسمن         مترجم: نیوشا امیدی        ۲۶ خرداد ۱۴۰۴

چگونه دیپ‌فیک‌های سیاسی را شناسایی کنیم؟

سواد رسانه‌ای در حوزه هوش مصنوعی و مقدار مناسبی از شهود انسانی می‌تواند ما را تا حد زیادی یاری کند. با گسترش فناوری هوش مصنوعی، تولید ویدیوها، تصاویر و فایل‌های صوتی دیپ‌فیک قانع‌کننده روز به روز ارزان‌تر و آسان‌تر می‌شود. این موضوع پیامدهایی برای عرصه سیاست دارد، جایی که دیپ‌فیک‌ها ممکن است به پدیده‌ای رایج‌تر در یک زیست‌بوم اطلاعاتی از پیش دچار تفرقه تبدیل شوند.


این مطلب نوشته‌ای است از آنا لویی ساسمن که در تاریخ۱ ژوئیه ۲۰۲۴ با عنوان
How to Spot Political Deepfakes
در وب‌سایت  Kellogg Insight منتشر شده است.


خلاصه

با گسترش فناوری هوش مصنوعی، تولید ویدیوها، تصاویر و فایل‌های صوتی دیپ‌فیک قانع‌کننده روز به روز ارزان‌تر و آسان‌تر می‌شود. این موضوع پیامدهایی برای عرصه سیاست دارد، جایی که دیپ‌فیک‌ها ممکن است به پدیده‌ای رایج‌تر در یک زیست‌بوم اطلاعاتی از پیش دچار تفرقه تبدیل شوند. برای کمک به مردم در تمایز میان محتوای واقعی و دیپ‌فیک سیاسی، دانستن علائم هشداردهنده مفید است. این مقاله نکاتی دربارۀ تعریف و شناسایی دیپ‌فیک‌ها، درک جایگاه آن‌ها در رسانه‌های کنونی، و اعتماد به شهود خود هنگام بررسی جزئیات رسانه‌ای برای نشانه‌های احتمالی دست‌کاری ارائه می‌دهد.

در ایالات متحده، فصل انتخابات ریاست‌جمهوری آغاز شده است. رأی‌دهندگان می‌توانند انتظار همان چیزهای همیشگی را داشته باشند: صندوق‌های پستی پر از بروشور، تبلیغات تلویزیونی تندوتیز، و پیامک‌هایی با لحن دوستانه از سوی نامزدهای حوزه‌های انتخابیه محلی که درخواست کمک مالی دارند.

اما در این فصل انتخاباتی، ممکن است با پدیده‌ای تازه نیز روبه‌رو شویم. در ماه ژانویه، یک تماس تلفنی خودکار تولیدشده با هوش مصنوعی که ادعا می‌کرد صدای جو بایدن، رئیس‌جمهور، است، از رأی‌دهندگان نیوهمپشایر خواست تا در انتخابات مقدماتی شرکت نکنند؛ اگر دیپ‌فیک‌ها به بخش گسترده‌تری از چشم‌انداز انتخاباتی بدل شوند، ممکن است در زیست‌بوم اطلاعاتی از پیش دچار شکاف، سردرگمی ایجاد کنند.

فناوری تولید این دیپ‌فیک‌ها هر روز در حال پیشرفت است. مت گرو، استاد یار مدیریت و سازمان‌ها در مدرسه کلاگ، نگران آن است که مردم بتوانند میان محتوای واقعی و جعلی آنلاین تمایز قائل شوند و فریب دیپ‌فیک‌ها را نخورند. او در پژوهش‌های خود دریافته که مردم، زمانی که دقیق باشند، در شناسایی دیپ‌فیک‌ها توانایی خوبی دارند.

در پژوهش‌هایی که با ویدیوهای دیپ‌فیک از بایدن و ترامپ انجام داده (به کادر کناری مراجعه کنید)، بیشتر افراد در تمایز بین محتوای واقعی و جعلی دقت نسبتاً بالایی داشتند.

در اینجا، گرو به رمزگشایی از دیپ‌فیک‌ها می‌پردازد. او توضیح می‌دهد که چرا احتمالاً به این زودی با سیل عظیمی از آن‌ها روبه‌رو نخواهیم شد و توصیه‌هایی برای شناسایی آن‌ها در فضای واقعی ارائه می‌دهد.

اصلاً دیپ‌فیک چیست؟

اصطلاح «دیپ‌فیک» ترکیبی از «یادگیری عمیق» (روشی از هوش مصنوعی که از طریق داده‌های چندلایه به شناسایی الگوها می‌پردازد) و «جعلی» (محصول شبیه‌سازی‌شده چنین یادگیری) است.

اما واقعاً چه چیزی «دیپ‌فیک» محسوب می‌شود؟ به گفته گرو، تعریف دقیق و مورد توافقی برای آن وجود ندارد. او می‌گوید: «کمی به حس و حال بستگی دارد.» تعریف کاری او این است: «رسانه‌ای تولیدشده با هوش مصنوعی (اغلب ویدیو) که باعث می‌شود فردی به نظر برسد که کاری کرده یا چیزی گفته که در واقعیت چنین نبوده»، ولی بسیاری از مردم به طور کلی آن را به عنوان دست‌کاری واقعیت در رسانه در نظر می‌گیرند.

اما گرو به‌سرعت یادآوری می‌کند که، هرچند این اصطلاح جدید است، بخش «جعلی» آن دهه‌هاست با ما بوده است.

جوزف استالین بدنام، دشمنانش را از عکس‌ها حذف می‌کرد و پوست چهره‌اش را در تصاویر صاف می‌کرد. نشنال جئوگرافیک تصویری از اهرام جیزه را در روی جلد خود دست‌کاری کرده بود. چهره آبراهام لینکلن توسط یک حکاک خلاق بر بدن جان سی. کلهون جای‌گذاری شده بود. سال گذشته، رأی‌دهندگان اسلواکی صدای دیپ‌فیک‌شده نامزدی را شنیدند که ظاهراً درباره تقلب در آرا و افزایش قیمت آبجو صحبت می‌کرد.

درک گستره دیپ‌فیک‌های سیاسی

با این حال، گرچه فناوری بدون شک امکان تولید دیپ‌فیک‌ها را فراهم کرده، تصور اینکه اینترنت در حال حاضر پر از تصاویر و ویدیوهای جعلیِ دشوار برای شناسایی است، صرفاً نادرست است. گرو می‌گوید دلیل آن این است که تولید ویدیوهای دیپ‌فیک قانع‌کننده هنوز بسیار دشوار است و نیاز به صرف زمان، منابع و مهارت فراوان دارد. تعویض چهره—استفاده از فناوری برای جای‌گذاری چهره افراد در عکس‌ها یا ویدیوها—نسبتاً ساده است، اما تولید دیپ‌فیک‌های واقعی‌گرایانه ویدئویی (فراتر از ویدیوهای ساده با چهره متکلم، مانند آنچه در HeyGen تولید می‌شود) مستلزم هماهنگی عوامل زیادی است.

گرو می‌گوید: «موضوع فقط این نیست که بگوییم “اوه، این یک ویدیوست، بیایید آن را وارد یک الگوریتم کنیم؛ حالا شد یک دیپ‌فیک و تمام.”»

«عناصر انسانی زیادی در این فرایند دخیل‌اند.»

برای نمونه، حتی برای یک دیپ‌فیک صوتی مانند تماس رباتیک منسوب به بایدن، یک کلاهبردار باید کار را با یک مجموعه‌داده صوتی مناسب آغاز کند—کلیپ‌هایی بدون نویز پس‌زمینه که با لحنی دقیقاً مشابه صحبت شده‌اند—تا بتواند یک دیپ‌فیک قانع‌کننده تولید کند.

برای نشان دادن میزان پیچیدگی این فرایند، گرو به مجموعه‌ای از دیپ‌فیک‌های تام کروز در یک حساب تیک‌تاک به نام deeptomcruise اشاره می‌کند که اکنون بیش از پنج میلیون دنبال‌کننده دارد. این ویدیوها بازیگری شبیه به تام کروز را نشان می‌دهند، ماه‌ها کار برای آموزش مدل بر پایه یک مجموعه‌داده عظیم از بازی‌ها و حضورهای رسانه‌ای تام کروز، جلوه‌های بصری، و همچنین کار فریم به فریم برای پاک‌سازی ناسازگاری‌ها—علاوه بر الگوریتم دیپ‌فیک.

گرو می‌گوید: «اگر درک کنیم که این چیزها چگونه ساخته می‌شوند، می‌توانیم بفهمیم چقدر دشوار است که به این شکل تولید شوند و چقدر تلاش انسانی برای فریب متقاعدکننده لازم است.»

«اگر دیپ‌فیک‌های بی‌نقص به این میزان تلاش نیاز دارند، پس با سیلی از رسانه‌های مصنوعی که از واقعیت غیرقابل تمایز باشند—آن‌طور که بسیاری انتظار دارند روبرو نخواهیم شد.»

به شهود خود اعتماد کنید، مکث کنید، و زمینه را در نظر بگیرید

ما همگی با این جمله معروف منسوب به توماس فولر، کشیش قرن هفدهم، آشنا هستیم که می‌گوید: «دیدن، باور کردن است.» اما نیمه دوم این جمله، که اغلب نادیده گرفته می‌شود، شاید در تشخیص دیپ‌فیک‌ها آموزنده‌تر باشد: «دیدن، باور کردن است، اما حس کردن، حقیقت است.»

خودِ عمل مکث کردن برای دقیق‌تر دیدن یا شنیدن رسانه‌های آنلاین، به افراد این فرصت را می‌دهد که به شهود خود رجوع کنند و احتمال گرفتار شدن در دام یک دیپ‌فیک را کاهش دهند.

در ویدیویی از نرم‌افزار هوش مصنوعی Sora، کلیپ کوتاهی که با عبارت «زنی در حال قدم زدن در خیابانی در توکیو» تولید شده، در نگاه اول بسیار واقعی به نظر می‌رسد—تا زمانی که حدود ۱۵ ثانیه از ویدیو می‌گذرد و پاهای زن حرکتی عجیب (و از نظر فیزیولوژیکی ناممکن) انجام می‌دهد؛ نوعی چرخش لغزنده در حین قدم زدن. گرو توضیح می‌دهد که این مثال، نشان می‌دهد چگونه یک ابزار هوش مصنوعی که پیکسل‌ها را بر اساس قواعد شناسایی الگوها می‌چیند، ممکن است از محدودیت‌های واقعیت چشم‌پوشی کند. دانستن این موضوع، تشخیص این‌گونه اختلالات را آسان‌تر می‌کند.

او می‌گوید: «ما قواعدی را می‌دانیم درباره اینکه انسان چگونه باید رفتار کند—چه از نظر اجتماعی، چه فیزیولوژیکی، یا هر چیز دیگر—اما همچنین می‌دانیم که مدل لزوماً این قواعد را نمی‌داند؛ بلکه صرفاً الگوهای آن قواعد را می‌شناسد.»

«وقتی این حرکات عجیب ظاهر می‌شوند، اینجاست که انسان بودن و داشتن عقل سلیم واقعاً به کار می‌آید.»

گرو می‌گوید همیشه در جهان دروغ‌گو وجود داشته و ما همیشه ناچار بوده‌ایم با تکیه بر توانایی‌های انسانی خود آن‌ها را شناسایی کنیم. یکی از نکات مهم این است که محتوای ساده‌ی گفتاری یا نوشتاری—آنچه گفته می‌شود—شاید برای شناسایی دیپ‌فیک‌ها کمتر مفید باشد نسبت به نشانه‌های غیرکلامی و بصری‌ای که پیرامون آن پیام وجود دارد.

گرو می‌گوید: «انسان‌ها به روش‌های بسیار متنوعی تعامل می‌کنند. تجربه یعنی اینکه چطور بو می‌کنید، چطور مزه می‌کنید، چطور می‌شنوید، چطور به مسائل با دید انتقادی نگاه می‌کنید. همه‌ی این عوامل مختلف به ما کمک می‌کنند تا واقعیت خود را بسازیم و واقعیت را از جعل تشخیص دهیم.»

درک کنید که دیپ‌فیک چگونه کار می‌کند؛حتی با ساختن نسخه‌ی خودتان

زمانی که گرو کلاس هوش مصنوعی خود را تدریس می‌کند، با تعریف ساده‌ای آغاز می‌کند که دانشجویان به راحتی درک کنند: «حل مسئله با رایانه‌ها.»

ممکن است دانشجویی بپرسد: «خب، این که شامل همه چیز می‌شود!»

گرو پاسخ می‌دهد که این دقیقاً نکته‌ی اصلی است—چون دانشجویان پیش‌تر با رایانه‌ها کار کرده‌اند، از فناوری هوش مصنوعی کمتر هراس دارند و نسبت به تبلیغات بازاریابی آن دیدی انتقادی‌تر پیدا می‌کنند.

به همین ترتیب، هرچه فرد بیشتر با فناوری دیپ‌فیک کار کند، محدودیت‌های آن نیز برایش آشکارتر می‌شود. به همین دلیل است که گرو معتقد است افراد مسن‌تر شاید کمتر از همتایان جوان‌تر خود توانایی تشخیص دیپ‌فیک‌ها را داشته باشند، چرا که نسل جوان احتمالاً با ابزارهایی مانند فیس‌سوَپ یا اپلیکیشن‌هایی مانند Facetune که قابلیت ویرایش عکس و ویدیو را دارند، رشد کرده‌اند.

گرو می‌گوید: «سن ما با نحوه تعامل‌مان در فضای مجازی و نوع محتوایی که مصرف می‌کنیم مرتبط است.»

آموزش سواد دیجیتال، یاد دادن نحوه استفاده از ابزارهای هوش مصنوعی، و دادن فرصت به افراد برای کار با این ابزارها، می‌تواند به آن‌ها کمک کند تا توانایی‌های این فناوری‌ها و نقاط ضعفشان را درک کنند و در نتیجه در مواجهه با فریب‌ها عملکرد بهتری داشته باشند.

برای مثال، جعل دست‌ها بسیار سخت‌تر از چهره‌هاست، چرا که تصاویر فراوانی از چهره‌ها برای آموزش مدل‌های هوش مصنوعی در دسترس است، اما تصاویر باکیفیت کمتری از دست‌ها وجود دارد. بنابراین، یکی از راه‌های شناسایی دیپ‌فیک‌ها بررسی دست افراد در ویدیوها برای مشاهده موارد غیرعادی است—از کف‌دست‌هایی غیرطبیعی بلند گرفته تا انگشتان اضافی.

او می‌گوید: «هرچه سواد هوش مصنوعی را بیشتر به سواد رسانه‌ای بیفزاییم، مردم کمتر فریب می‌خورند.»

گرو به همراه همکارانش نگار کمالی، کارین ناکامورا، آنجلوس چاتزی‌مپارمپس و جسیکا هالمن از دانشگاه نورث‌وسترن، راهنمای آموزشی‌ای برای تمایز تصاویر تولیدشده با هوش مصنوعی از عکس‌های واقعی منتشر کرده‌اند.

و فراموش نکنید که همچنان باید به مهارت‌های پایه‌ای سواد رسانه‌ای و تفکر انتقادی نیز تکیه کرد. گرو می‌گوید: «منبع چیست؟ قصد دارد مرا به چه چیزی متقاعد کند؟ چرا ممکن است این محتوا واقعی یا جعلی باشد؟» این‌ها همه پرسش‌هایی هستند که باید هنگام مواجهه با محتوای سیاسی در نظر گرفت.


درباره نویسنده:
آنا لویی ساسمن؛ نویسنده‌ای سایت Kellogg Insight

منبع: Kellogg insight

مطالب مرتبط