سه هزار
Advertisement
جدیدترین مطالب
Article Image
فصلنامه «گام سوم» شماره ۲

در این شماره مقالات متنوعی در موضوعات اقتصاد، آینده‌پژوهی، خانواده به همراه بخش‌های نوشتار، سیاست و پرونده‌ای با عنوان «داووس ۲۰۲۵» چاپ شده است.

Article Image
جستجو برای طول عمر هم‌اکنون به پایان رسیده است!

مطالعه‌ی افرادی که بیش از صد سال عمر می‌کنند می‌تواند راز زندگی طولانی‌تر و سالم‌تر را آشکار کند. اما آمارها داستان دیگری روایت می‌کنند.

Article Image
چطور بدون اینکه بدانیم از ما سوءاستفاده می‌شود؟

چقدر باید بگذرد تا بالاخره از جهنم شخصی خود بیدار شویم؟ چگونه از خواستن مرگ به خواستن زندگی رسیدم

Article Image
اضطراب اقلیمی در کودکان؛زنگ خطری برای والدین

وقتی کودکان و نوجوانان به آینده فکر می‌کنند، یک بار اضافی دارند: آن‌ها باید با آینده‌ی بیشتری نسبت به بزرگ‌ترها مواجه شوند.

پربازدیدترین مطالب
Article Image
هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟

اگر خوش‌شانس باشیم، فناوری‌های جدید فقط باعث سردرگمی مختصری می‌شوند. وگرنه، حوزه سیاسی ما می‌تواند برای همیشه تغییر کند.

Article Image
انواع هوش، کاربردهای هوش هیجانی و تقویت آن در کودکان

ین مطلب نگاهی دارد به انواع هوش و نقش مهم آنها در زندگی روزمره و توانایی‌های شناختی انسان. همچنین مروری بر هوش هیجانی و کاربردها و روش‌های تقویت آن در کودکان.

Article Image
کاهش هدررفت غذا با اپلیکیشن موبایلی

اگرچه این اپلیکیشن غذای باقی‌مانده‌ی رستوران‌ها را ارزان در اختیار کاربران قرار می‌دهد، اما همچنان ابهاماتی درباره‌ی میزان واقعی کاهش هدررفت و استفاده‌ی تجاری برخی کسب‌وکارها از این سیستم وجود دارد.

...

نویسنده: آرویند نارایانان        مترجم: عباس امیدی        ۲۴ بهمن ۱۴۰۳

سال ۲۰۲۵؛ سوءاستفاده از هوش مصنوعی نگران‌کننده است

خطرات هوش مصنوعی از عملکرد مستقل آن ناشی نمی‌شوند، بلکه از نحوه استفاده انسان‌ها از آن سرچشمه می‌گیرند. مواردی شامل موقعیت‌هایی که هوش مصنوعی به‌ظاهر خوب عمل می‌کند اما بیش‌ازحد به آن اعتماد می‌شود یا مورد سوءاستفاده قرار می‌گیرد.


این مطلب نوشته‌ای است از آرویند نارایانان که در تاریخ ۱۳ دسامبر ۲۰۲۴ با عنوان
Worry About Misuse of AI, Not Superintelligence
در وب‌سایت Wired در مجموعه مقالات «جهان در سال ۲۰۲۵» منتشر شده است.


سم آلتمن، مدیرعامل OpenAI، پیش‌بینی می‌کند که هوش عمومی مصنوعی (AGI)؛ هوشی که در بیشتر وظایف از انسان برتر باشد، در حدود سال‌های ۲۰۲۷ یا ۲۰۲۸ محقق خواهد شد. ایلان ماسک زمان تحقق آن را بین سال‌های ۲۰۲۵ تا ۲۰۲۶ می‌داند و مدعی شده است که بابت خطرات هوش مصنوعی «خواب از چشمانش ربوده شده است.»

اما از همان روزهای نخستین این فناوری، پیش‌بینی‌هایی درباره ظهور قریب‌الوقوع هوش مصنوعی در سطح انسان بیش از ۵۰ سال است که مطرح می‌شوند. این پیش‌بینی‌ها نه‌تنها از نظر زمانی، بلکه از نظر ماهیتی نیز اشتباه بوده‌اند. امروزه می‌دانیم که رویکردهای مشخصی که متخصصان پیشین برای دستیابی به این سطح از هوش مصنوعی در نظر داشتند، ذاتاً قادر به تحقق آن نبودند. به همین ترتیب، با روشن‌تر شدن محدودیت‌های هوش مصنوعی کنونی، اغلب پژوهشگران این حوزه به این نتیجه رسیده‌اند که صرفاً ساخت مدل‌های بزرگ‌تر و قدرتمندتر منجر به شکل‌گیری هوش عمومی مصنوعی نخواهد شد.

البته هوش مصنوعی پیشرفته یک نگرانی بلندمدت است که باید مورد مطالعه پژوهشگران قرار گیرد. اما خطرات هوش مصنوعی در سال ۲۰۲۵، مانند گذشته، ناشی از سوءاستفاده از آن خواهند بود.

این سوءاستفاده‌ها ممکن است ناخواسته باشند، مانند تکیه بیش از حد و ناآگاهانه وکلا بر هوش مصنوعی. برای مثال، پس از انتشار ChatGPT، شماری از وکلا به دلیل ارائه اسناد حقوقی نادرست که توسط هوش مصنوعی تولید شده بودند، جریمه شدند، چراکه ظاهراً از تمایل چت‌بات‌ها به جعل اطلاعات آگاه نبودند. در استان بریتیش کلمبیا، وکیلی به نام «چونگ که» به پرداخت هزینه‌های وکیل طرف مقابل محکوم شد، زیرا در پرونده حقوقی خود از پرونده‌های ساختگی تولیدشده توسط هوش مصنوعی استفاده کرده بود. در نیویورک، دو وکیل به نام‌های استیون شوارتز و پیتر لودوکا به دلیل ارائه استنادهای جعلی ۵۰۰۰ دلار جریمه شدند. در کلرادو، زکریا کرا‌بیل به‌مدت یک سال از وکالت محروم شد، زیرا از پرونده‌های ساختگی تولیدشده توسط ChatGPT استفاده کرده و اشتباه را به یک «کارآموز حقوقی» نسبت داده بود. فهرست این موارد به‌سرعت در حال گسترش است.

سوءاستفاده‌های دیگر اما عامدانه‌اند. در ژانویه ۲۰۲۴، تصاویر غیر اخلاقی جعل‌شده‌ای از تیلور سوئیفت فضای شبکه‌های اجتماعی را پر کردند. این تصاویر با استفاده از ابزار هوش مصنوعی Designer، محصول مایکروسافت، ساخته شده بودند. هرچند این شرکت تدابیری برای جلوگیری از تولید تصاویر افراد واقعی در نظر گرفته بود، اما تغییر جزئی در املای نام سوئیفت برای دور زدن این محدودیت کافی بود. مایکروسافت پس از این ماجرا، این نقص را برطرف کرد. اما ماجرای تیلور سوئیفت تنها نوک کوه یخ است و تصاویر جعلی غیراخلاقی بدون رضایت افراد به‌سرعت در حال گسترش‌اند. بخشی از این روند به دلیل در دسترس بودن ابزارهای متن‌باز برای ساخت چنین محتوایی است. در حال حاضر، قانون‌گذاران در سراسر جهان در تلاش‌اند با تصویب مقررات جدید، با این معضل مقابله کنند، اما اثربخشی این اقدامات هنوز مشخص نیست.

در سال ۲۰۲۵، تشخیص واقعیت از جعل حتی دشوارتر خواهد شد. کیفیت صوت، متن و تصاویر تولیدشده توسط هوش مصنوعی حیرت‌انگیز است و ویدئو نیز به‌زودی به این فهرست اضافه خواهد شد. این مسئله می‌تواند به پدیده‌ای منجر شود که به آن «سود دروغ‌گو» می‌گویند: افراد صاحب قدرت می‌توانند شواهدی را که رفتار نادرستشان را نشان می‌دهد، با این ادعا که جعلی‌اند، رد کنند.

در سال ۲۰۲۳، شرکت تسلا در واکنش به اتهامی مبنی بر اینکه ایلان ماسک در سال ۲۰۱۶ درباره میزان ایمنی سیستم خودران این شرکت اغراق کرده و این امر منجر به تصادف شده است، ادعا کرد که ویدئوی آن زمان ماسک ممکن است یک دیپ‌فیک باشد. در هند، یک سیاستمدار اظهار داشت که فایل‌های صوتی منتشرشده از او که در آن‌ها به فساد در حزبش اذعان می‌کند، دستکاری شده‌اند؛ درحالی‌که حداقل یکی از این فایل‌ها توسط یک رسانه معتبر به‌عنوان صدای واقعی او تأیید شد. در آمریکا، دو متهم در حوادث حمله به کنگره در ۶ ژانویه ادعا کردند که ویدئوهایی که آن‌ها را در صحنه نشان می‌دهند، جعلی هستند. ولی هر دو گناهکار شناخته شدند.

در همین حال، برخی شرکت‌ها از سردرگمی عمومی سوءاستفاده کرده و محصولات بی‌اساس خود را با برچسب «هوش مصنوعی» می‌فروشند. این امر زمانی به‌شدت خطرناک می‌شود که چنین ابزارهایی برای دسته‌بندی افراد و اتخاذ تصمیم‌های مهم درباره آن‌ها به کار گرفته شوند. برای مثال، شرکت Retorio که در حوزه استخدام فعالیت دارد، مدعی است که هوش مصنوعی این شرکت می‌تواند از طریق مصاحبه‌های ویدئویی، میزان تناسب افراد را برای شغل موردنظرشان پیش‌بینی کند. اما یک مطالعه نشان داد که این سیستم را می‌توان به‌سادگی فریب داد؛ مثلاً فقط با گذاشتن عینک یا تغییر پس‌زمینه ساده به یک قفسه کتاب. این موضوع نشان می‌دهد که الگوریتم مورد استفاده تنها بر همبستگی‌های سطحی تکیه دارد و اساس علمی معتبری ندارد.

چنین کاربردهای مشکوکی از هوش مصنوعی تنها به حوزه استخدام محدود نمی‌شود. در بخش‌های بهداشت، آموزش، مالی، عدالت کیفری و بیمه، ده‌ها نمونه وجود دارد که در آن‌ها هوش مصنوعی برای محروم کردن افراد از فرصت‌های مهم زندگی‌شان به کار گرفته شده است. در هلند، اداره مالیات این کشور از یک الگوریتم هوش مصنوعی برای شناسایی افرادی که در دریافت کمک‌هزینه فرزند تقلب کرده بودند، استفاده کرد. اما این سیستم هزاران والد را به اشتباه متهم کرد و از بسیاری از آن‌ها خواست که ده‌ها هزار یورو را بازگردانند. این رسوایی به حدی جدی بود که در نهایت، نخست‌وزیر و کل کابینه او مجبور به استعفا شدند.

در سال ۲۰۲۵، انتظار می‌رود که خطرات هوش مصنوعی نه از عملکرد مستقل آن، بلکه از نحوه استفاده انسان‌ها از آن ناشی شوند. این موارد شامل موقعیت‌هایی است که هوش مصنوعی به‌ظاهر خوب عمل می‌کند اما بیش‌ازحد به آن اعتماد می‌شود (مانند وکلایی که از ChatGPT استفاده می‌کنند)، موقعیت‌هایی که عملکرد خوبی دارد اما مورد سوءاستفاده قرار می‌گیرد (مانند دیپ‌فیک‌های غیراخلاقی و پدیده «سود دروغ‌گو»)، و مواردی که اصلاً برای آن کاربرد مناسب نیست اما همچنان مورد استفاده قرار می‌گیرد (مانند مواردی که حقوق افراد را نقض می‌کند.)

مدیریت این خطرات، وظیفه‌ای سنگین برای شرکت‌ها، دولت‌ها و جامعه است؛ و این کار به‌اندازه کافی دشوار هست، چه برسد به اینکه نگرانی‌های علمی‌تخیلی نیز حواس ما را از تهدیدهای واقعی پرت کند.


درباره نویسنده:
آرویند نارایانان؛ دانشمند علوم کامپیوتر و استاد دانشگاه پرینستون

منبع: Wired

مطالب مرتبط