جدیدترین مطالب

فصلنامه «گام سوم» شماره ۳
در این شماره نیز مقالاتی متنوع در موضوعات اقتصاد، آیندهپژوهی، خانواده به همراه بخشهای نوشتار، سیاست و پروندهای با عنوان «آیندهای قمر در عقرب» و بخش ضمیمه نوروزی با عنوان «بزرگ شدن در خاندان مرداک» چاپ شده است.

خطرناکترین افراد اینترنت در سال ۲۰۲۴
از ایلان ماسک و دونالد ترامپ گرفته تا هکرهای دولتی و کلاهبرداران رمزارزی، سال ۲۰۲۴ سالی بود که عوامل آشوب آنلاین قدرت بیشتری بهدست آوردند. همانطور که هر سال انجام میدهیم، WIRED فهرستی از خطرناکترین افراد، گروهها و سازمانهای اینترنتی سال تهیه کرده است.

تسلا در آستانه فروپاشی است!
این یک اغراق نیست. اما باید پرسید: این موضوع چه تأثیری بر شرکت مشهور او یعنی تسلا دارد؟ بسیاری از شما که این مطلب را میخوانید، شاید مالک خودروهای تسلا باشید، یا سهام آن را داشته باشید، یا حتی حسابهای بازنشستگی و پساندازی داشته باشید که در تسلا سرمایهگذاری کردهاند. صادقانه بگویم، به نظر من باید هرچه سریعتر همهی آن را بفروشید، چون فقط سیاستهای ماسک نیست که این غول خودروسازی را به سوی سقوط میکشاند.

مدرسه، شغل، روابط… یافتن «تناسب» خوب دشوار است
مطالعهای بر روی متقاضیان دانشکدههای پزشکی نشان میدهد که شفافیت میتواند تصمیمگیری را بهبود بخشد. بخش مهمی از ایجاد این تطابق خوب، «اطلاعات پنهان»ی است که هر یک از طرفین گاهی از دیگری پنهان میکنند. در واقع، تحقیقات جدید نشان میدهد که وقتی یکی از طرفین یا هر دو به این اطلاعات دسترسی بیشتری داشته باشند، اغلب تطابق بهتری حاصل میشود.
پربازدیدترین مطالب

هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟
اگر خوششانس باشیم، فناوریهای جدید فقط باعث سردرگمی مختصری میشوند. وگرنه، حوزه سیاسی ما میتواند برای همیشه تغییر کند.

انواع هوش، کاربردهای هوش هیجانی و تقویت آن در کودکان
ین مطلب نگاهی دارد به انواع هوش و نقش مهم آنها در زندگی روزمره و تواناییهای شناختی انسان. همچنین مروری بر هوش هیجانی و کاربردها و روشهای تقویت آن در کودکان.

کاهش هدررفت غذا با اپلیکیشن موبایلی
اگرچه این اپلیکیشن غذای باقیماندهی رستورانها را ارزان در اختیار کاربران قرار میدهد، اما همچنان ابهاماتی دربارهی میزان واقعی کاهش هدررفت و استفادهی تجاری برخی کسبوکارها از این سیستم وجود دارد.

نویسنده: آنا لویی ساسمن مترجم: نیوشا امیدی ۲۶ خرداد ۱۴۰۴
چگونه دیپفیکهای سیاسی را شناسایی کنیم؟
سواد رسانهای در حوزه هوش مصنوعی و مقدار مناسبی از شهود انسانی میتواند ما را تا حد زیادی یاری کند. با گسترش فناوری هوش مصنوعی، تولید ویدیوها، تصاویر و فایلهای صوتی دیپفیک قانعکننده روز به روز ارزانتر و آسانتر میشود. این موضوع پیامدهایی برای عرصه سیاست دارد، جایی که دیپفیکها ممکن است به پدیدهای رایجتر در یک زیستبوم اطلاعاتی از پیش دچار تفرقه تبدیل شوند.
این مطلب نوشتهای است از آنا لویی ساسمن که در تاریخ۱ ژوئیه ۲۰۲۴ با عنوان
How to Spot Political Deepfakes
در وبسایت Kellogg Insight منتشر شده است.
خلاصه
با گسترش فناوری هوش مصنوعی، تولید ویدیوها، تصاویر و فایلهای صوتی دیپفیک قانعکننده روز به روز ارزانتر و آسانتر میشود. این موضوع پیامدهایی برای عرصه سیاست دارد، جایی که دیپفیکها ممکن است به پدیدهای رایجتر در یک زیستبوم اطلاعاتی از پیش دچار تفرقه تبدیل شوند. برای کمک به مردم در تمایز میان محتوای واقعی و دیپفیک سیاسی، دانستن علائم هشداردهنده مفید است. این مقاله نکاتی دربارۀ تعریف و شناسایی دیپفیکها، درک جایگاه آنها در رسانههای کنونی، و اعتماد به شهود خود هنگام بررسی جزئیات رسانهای برای نشانههای احتمالی دستکاری ارائه میدهد.
در ایالات متحده، فصل انتخابات ریاستجمهوری آغاز شده است. رأیدهندگان میتوانند انتظار همان چیزهای همیشگی را داشته باشند: صندوقهای پستی پر از بروشور، تبلیغات تلویزیونی تندوتیز، و پیامکهایی با لحن دوستانه از سوی نامزدهای حوزههای انتخابیه محلی که درخواست کمک مالی دارند.
اما در این فصل انتخاباتی، ممکن است با پدیدهای تازه نیز روبهرو شویم. در ماه ژانویه، یک تماس تلفنی خودکار تولیدشده با هوش مصنوعی که ادعا میکرد صدای جو بایدن، رئیسجمهور، است، از رأیدهندگان نیوهمپشایر خواست تا در انتخابات مقدماتی شرکت نکنند؛ اگر دیپفیکها به بخش گستردهتری از چشمانداز انتخاباتی بدل شوند، ممکن است در زیستبوم اطلاعاتی از پیش دچار شکاف، سردرگمی ایجاد کنند.
فناوری تولید این دیپفیکها هر روز در حال پیشرفت است. مت گرو، استاد یار مدیریت و سازمانها در مدرسه کلاگ، نگران آن است که مردم بتوانند میان محتوای واقعی و جعلی آنلاین تمایز قائل شوند و فریب دیپفیکها را نخورند. او در پژوهشهای خود دریافته که مردم، زمانی که دقیق باشند، در شناسایی دیپفیکها توانایی خوبی دارند.
در پژوهشهایی که با ویدیوهای دیپفیک از بایدن و ترامپ انجام داده (به کادر کناری مراجعه کنید)، بیشتر افراد در تمایز بین محتوای واقعی و جعلی دقت نسبتاً بالایی داشتند.
در اینجا، گرو به رمزگشایی از دیپفیکها میپردازد. او توضیح میدهد که چرا احتمالاً به این زودی با سیل عظیمی از آنها روبهرو نخواهیم شد و توصیههایی برای شناسایی آنها در فضای واقعی ارائه میدهد.
اصلاً دیپفیک چیست؟
اصطلاح «دیپفیک» ترکیبی از «یادگیری عمیق» (روشی از هوش مصنوعی که از طریق دادههای چندلایه به شناسایی الگوها میپردازد) و «جعلی» (محصول شبیهسازیشده چنین یادگیری) است.
اما واقعاً چه چیزی «دیپفیک» محسوب میشود؟ به گفته گرو، تعریف دقیق و مورد توافقی برای آن وجود ندارد. او میگوید: «کمی به حس و حال بستگی دارد.» تعریف کاری او این است: «رسانهای تولیدشده با هوش مصنوعی (اغلب ویدیو) که باعث میشود فردی به نظر برسد که کاری کرده یا چیزی گفته که در واقعیت چنین نبوده»، ولی بسیاری از مردم به طور کلی آن را به عنوان دستکاری واقعیت در رسانه در نظر میگیرند.
اما گرو بهسرعت یادآوری میکند که، هرچند این اصطلاح جدید است، بخش «جعلی» آن دهههاست با ما بوده است.
جوزف استالین بدنام، دشمنانش را از عکسها حذف میکرد و پوست چهرهاش را در تصاویر صاف میکرد. نشنال جئوگرافیک تصویری از اهرام جیزه را در روی جلد خود دستکاری کرده بود. چهره آبراهام لینکلن توسط یک حکاک خلاق بر بدن جان سی. کلهون جایگذاری شده بود. سال گذشته، رأیدهندگان اسلواکی صدای دیپفیکشده نامزدی را شنیدند که ظاهراً درباره تقلب در آرا و افزایش قیمت آبجو صحبت میکرد.
درک گستره دیپفیکهای سیاسی
با این حال، گرچه فناوری بدون شک امکان تولید دیپفیکها را فراهم کرده، تصور اینکه اینترنت در حال حاضر پر از تصاویر و ویدیوهای جعلیِ دشوار برای شناسایی است، صرفاً نادرست است. گرو میگوید دلیل آن این است که تولید ویدیوهای دیپفیک قانعکننده هنوز بسیار دشوار است و نیاز به صرف زمان، منابع و مهارت فراوان دارد. تعویض چهره—استفاده از فناوری برای جایگذاری چهره افراد در عکسها یا ویدیوها—نسبتاً ساده است، اما تولید دیپفیکهای واقعیگرایانه ویدئویی (فراتر از ویدیوهای ساده با چهره متکلم، مانند آنچه در HeyGen تولید میشود) مستلزم هماهنگی عوامل زیادی است.
گرو میگوید: «موضوع فقط این نیست که بگوییم “اوه، این یک ویدیوست، بیایید آن را وارد یک الگوریتم کنیم؛ حالا شد یک دیپفیک و تمام.”»
«عناصر انسانی زیادی در این فرایند دخیلاند.»
برای نمونه، حتی برای یک دیپفیک صوتی مانند تماس رباتیک منسوب به بایدن، یک کلاهبردار باید کار را با یک مجموعهداده صوتی مناسب آغاز کند—کلیپهایی بدون نویز پسزمینه که با لحنی دقیقاً مشابه صحبت شدهاند—تا بتواند یک دیپفیک قانعکننده تولید کند.
برای نشان دادن میزان پیچیدگی این فرایند، گرو به مجموعهای از دیپفیکهای تام کروز در یک حساب تیکتاک به نام deeptomcruise اشاره میکند که اکنون بیش از پنج میلیون دنبالکننده دارد. این ویدیوها بازیگری شبیه به تام کروز را نشان میدهند، ماهها کار برای آموزش مدل بر پایه یک مجموعهداده عظیم از بازیها و حضورهای رسانهای تام کروز، جلوههای بصری، و همچنین کار فریم به فریم برای پاکسازی ناسازگاریها—علاوه بر الگوریتم دیپفیک.
گرو میگوید: «اگر درک کنیم که این چیزها چگونه ساخته میشوند، میتوانیم بفهمیم چقدر دشوار است که به این شکل تولید شوند و چقدر تلاش انسانی برای فریب متقاعدکننده لازم است.»
«اگر دیپفیکهای بینقص به این میزان تلاش نیاز دارند، پس با سیلی از رسانههای مصنوعی که از واقعیت غیرقابل تمایز باشند—آنطور که بسیاری انتظار دارند روبرو نخواهیم شد.»
به شهود خود اعتماد کنید، مکث کنید، و زمینه را در نظر بگیرید
ما همگی با این جمله معروف منسوب به توماس فولر، کشیش قرن هفدهم، آشنا هستیم که میگوید: «دیدن، باور کردن است.» اما نیمه دوم این جمله، که اغلب نادیده گرفته میشود، شاید در تشخیص دیپفیکها آموزندهتر باشد: «دیدن، باور کردن است، اما حس کردن، حقیقت است.»
خودِ عمل مکث کردن برای دقیقتر دیدن یا شنیدن رسانههای آنلاین، به افراد این فرصت را میدهد که به شهود خود رجوع کنند و احتمال گرفتار شدن در دام یک دیپفیک را کاهش دهند.
در ویدیویی از نرمافزار هوش مصنوعی Sora، کلیپ کوتاهی که با عبارت «زنی در حال قدم زدن در خیابانی در توکیو» تولید شده، در نگاه اول بسیار واقعی به نظر میرسد—تا زمانی که حدود ۱۵ ثانیه از ویدیو میگذرد و پاهای زن حرکتی عجیب (و از نظر فیزیولوژیکی ناممکن) انجام میدهد؛ نوعی چرخش لغزنده در حین قدم زدن. گرو توضیح میدهد که این مثال، نشان میدهد چگونه یک ابزار هوش مصنوعی که پیکسلها را بر اساس قواعد شناسایی الگوها میچیند، ممکن است از محدودیتهای واقعیت چشمپوشی کند. دانستن این موضوع، تشخیص اینگونه اختلالات را آسانتر میکند.
او میگوید: «ما قواعدی را میدانیم درباره اینکه انسان چگونه باید رفتار کند—چه از نظر اجتماعی، چه فیزیولوژیکی، یا هر چیز دیگر—اما همچنین میدانیم که مدل لزوماً این قواعد را نمیداند؛ بلکه صرفاً الگوهای آن قواعد را میشناسد.»
«وقتی این حرکات عجیب ظاهر میشوند، اینجاست که انسان بودن و داشتن عقل سلیم واقعاً به کار میآید.»
گرو میگوید همیشه در جهان دروغگو وجود داشته و ما همیشه ناچار بودهایم با تکیه بر تواناییهای انسانی خود آنها را شناسایی کنیم. یکی از نکات مهم این است که محتوای سادهی گفتاری یا نوشتاری—آنچه گفته میشود—شاید برای شناسایی دیپفیکها کمتر مفید باشد نسبت به نشانههای غیرکلامی و بصریای که پیرامون آن پیام وجود دارد.
گرو میگوید: «انسانها به روشهای بسیار متنوعی تعامل میکنند. تجربه یعنی اینکه چطور بو میکنید، چطور مزه میکنید، چطور میشنوید، چطور به مسائل با دید انتقادی نگاه میکنید. همهی این عوامل مختلف به ما کمک میکنند تا واقعیت خود را بسازیم و واقعیت را از جعل تشخیص دهیم.»
درک کنید که دیپفیک چگونه کار میکند؛حتی با ساختن نسخهی خودتان
زمانی که گرو کلاس هوش مصنوعی خود را تدریس میکند، با تعریف سادهای آغاز میکند که دانشجویان به راحتی درک کنند: «حل مسئله با رایانهها.»
ممکن است دانشجویی بپرسد: «خب، این که شامل همه چیز میشود!»
گرو پاسخ میدهد که این دقیقاً نکتهی اصلی است—چون دانشجویان پیشتر با رایانهها کار کردهاند، از فناوری هوش مصنوعی کمتر هراس دارند و نسبت به تبلیغات بازاریابی آن دیدی انتقادیتر پیدا میکنند.
به همین ترتیب، هرچه فرد بیشتر با فناوری دیپفیک کار کند، محدودیتهای آن نیز برایش آشکارتر میشود. به همین دلیل است که گرو معتقد است افراد مسنتر شاید کمتر از همتایان جوانتر خود توانایی تشخیص دیپفیکها را داشته باشند، چرا که نسل جوان احتمالاً با ابزارهایی مانند فیسسوَپ یا اپلیکیشنهایی مانند Facetune که قابلیت ویرایش عکس و ویدیو را دارند، رشد کردهاند.
گرو میگوید: «سن ما با نحوه تعاملمان در فضای مجازی و نوع محتوایی که مصرف میکنیم مرتبط است.»
آموزش سواد دیجیتال، یاد دادن نحوه استفاده از ابزارهای هوش مصنوعی، و دادن فرصت به افراد برای کار با این ابزارها، میتواند به آنها کمک کند تا تواناییهای این فناوریها و نقاط ضعفشان را درک کنند و در نتیجه در مواجهه با فریبها عملکرد بهتری داشته باشند.
برای مثال، جعل دستها بسیار سختتر از چهرههاست، چرا که تصاویر فراوانی از چهرهها برای آموزش مدلهای هوش مصنوعی در دسترس است، اما تصاویر باکیفیت کمتری از دستها وجود دارد. بنابراین، یکی از راههای شناسایی دیپفیکها بررسی دست افراد در ویدیوها برای مشاهده موارد غیرعادی است—از کفدستهایی غیرطبیعی بلند گرفته تا انگشتان اضافی.
او میگوید: «هرچه سواد هوش مصنوعی را بیشتر به سواد رسانهای بیفزاییم، مردم کمتر فریب میخورند.»
گرو به همراه همکارانش نگار کمالی، کارین ناکامورا، آنجلوس چاتزیمپارمپس و جسیکا هالمن از دانشگاه نورثوسترن، راهنمای آموزشیای برای تمایز تصاویر تولیدشده با هوش مصنوعی از عکسهای واقعی منتشر کردهاند.
و فراموش نکنید که همچنان باید به مهارتهای پایهای سواد رسانهای و تفکر انتقادی نیز تکیه کرد. گرو میگوید: «منبع چیست؟ قصد دارد مرا به چه چیزی متقاعد کند؟ چرا ممکن است این محتوا واقعی یا جعلی باشد؟» اینها همه پرسشهایی هستند که باید هنگام مواجهه با محتوای سیاسی در نظر گرفت.
درباره نویسنده:
آنا لویی ساسمن؛ نویسندهای سایت Kellogg Insight