سه هزار
Advertisement
جدیدترین مطالب
Article Image
فصلنامه «گام سوم» شماره ۳

در این شماره نیز مقالاتی متنوع در موضوعات اقتصاد، آینده‌پژوهی، خانواده به همراه بخش‌های نوشتار، سیاست و پرونده‌ای با عنوان «آینده‌ای قمر در عقرب» و بخش ضمیمه نوروزی با عنوان «بزرگ شدن در خاندان مرداک» چاپ شده است.

Article Image
چالش‌های والدین شاغل: وابستگی به خدمات نگهداری کودک

دیگران فکر می‌کنند من مادر بدی هستم چون بچه‌هایم را به مراکز مراقبت پولی می‌فرستم، اما فرزندانم عاشق مراقبان‌شان و فعالیت‌هایی هستند که با آن‌ها انجام می‌دهند. و این‌که من به کارم ادامه می‌دهم، بهترین تصمیم برای خودم و خانواده‌ام است. مراقبت پولی به این معناست که من زیر فشار انجام هم‌زمان همه‌چیز از پا نمی‌افتم. این نوع مراقبت از سلامت روان من محافظت می‌کند تا بتوانم هم کار کنم و هم مادر باشم، بی‌آنکه به کمک پدربزرگ و مادربزرگ وابسته شوم.

Article Image
الگوریتم جدید برای مقابله با «توهمات» هوش مصنوعی

یکی از مشکلات پایدار ابزارهای هوش مصنوعی مولد امروزی، مانند ChatGPT، این است که اغلب با اطمینان کامل اطلاعات نادرست ارائه می‌کنند. دانشمندان علوم رایانه این رفتار را «توهم» می‌نامند و آن را یکی از موانع اصلی کاربردپذیری هوش مصنوعی می‌دانند. توهم‌ها باعث بروز برخی اشتباهات عمومی شرم‌آور شده‌اند.

Article Image
ریاکاری در قضاوت کسانی که زیباتر می‌شوند!

برای آن دسته که با این اصطلاح آشنا نیستند، «چهره‌گرایی» به معنای تبعیض بر مبنای جذابیت ظاهری است. در حالی که بیشتر اشکال تبعیض، اغلب بنا به تعریف، به گروه‌های خاصی محدود می‌شوند؛ برای مثال، زن‌ستیزی نمی‌تواند متوجه مردان باشد،چهره‌گرایی هیچ‌کس را مستثنی نمی‌کند.

پربازدیدترین مطالب
Article Image
هوش مصنوعی و سیاست: چگونه بفهمیم چه چیزی و چه کسی واقعی است؟

اگر خوش‌شانس باشیم، فناوری‌های جدید فقط باعث سردرگمی مختصری می‌شوند. وگرنه، حوزه سیاسی ما می‌تواند برای همیشه تغییر کند.

Article Image
روند ۱۰۰ ساله تغییر اشتغال زنان به روایت تصویر

نگاهی به تصاویر صد سال گذشته نشان می‌دهد که زنان چگونه از جنگ‌های جهانی تا قرن ۲۱، توانستند مرزهای شغلی را جابه‌جا کنند و مسیر جدیدی در تاریخ نیروی کار رقم بزنند.

Article Image
انواع هوش، کاربردهای هوش هیجانی و تقویت آن در کودکان

ین مطلب نگاهی دارد به انواع هوش و نقش مهم آنها در زندگی روزمره و توانایی‌های شناختی انسان. همچنین مروری بر هوش هیجانی و کاربردها و روش‌های تقویت آن در کودکان.

...

نویسنده: بیلی پریگو و ویل هنشال         مترجم: نیوشا امیدی        ۱۲ مرداد ۱۴۰۴

هشدار کارمندان سابقOpenAI : «میزان مخاطره بسیار بالاست»

هر دوی آن‌ها معتقدند که توانمندی سامانه‌های هوش مصنوعی در سال‌های پیش‌رو به‌طرز چشم‌گیری افزایش خواهد یافت و این تحولات پیامدهایی بنیادین برای جامعه در پی خواهند داشت. کوکوتایلو می‌گوید: «میزان مخاطره واقعاً بسیار بالاست.»


این مطلب نوشته‌ای است از بیلی پریگو و ویل هنشال که در تاریخ ۵ ژوئن ۲۰۲۴ با عنوان
The Stakes Are Incredibly High
در وب‌سایت New York Times  منتشر شده است.


این مصاحبه ممکن است برای ویلیام ساندرز هزینه‌بر باشد. او که پیش‌تر به‌عنوان پژوهشگر ایمنی در OpenAI فعالیت می‌کرد، در فوریه از این شرکت استعفا داد و مانند بسیاری دیگر از کارکنان جداشده،توافق‌نامه‌ای مبنی بر عدم بدگویی امضا کرد تا بتواند حق فروش سهام خود در شرکت را حفظ کند. با اینکه وی می‌گوید OpenAI از آن زمان به او اعلام کرده که قصدی برای اجرای مفاد این توافق‌نامه ندارد و در این خصوص تعهدات عمومی مشابهی نیز ارائه داده است، اما همچنان با بیان اظهاراتش ریسک می‌کند. او به نشریه تایم می‌گوید: «ممکن است با گفت‌وگو با شما هرگز نتوانم به سهامی که ارزش آن میلیون‌ها دلار است، دسترسی پیدا کنم. اما به‌نظر من، داشتن یک گفت‌وگوی عمومی درباره آنچه در این شرکت‌های AGI رخ می‌دهد مهم‌تر است.»

افراد دیگری نیز چنین احساسی دارند. روز سه‌شنبه، سیزده نفر از کارکنان فعلی و پیشین شرکت‌های OpenAI و گوگل دیپ‌مایند خواستار حمایت‌های قوی‌تر از افشاگران در شرکت‌هایی شدند که در حال توسعه هوش مصنوعی پیشرفته هستند. این درخواست‌ها در شرایطی مطرح شد که نگرانی‌ها نسبت به احتمال خروج کنترل این فناوری قدرتمند از دست بشر افزایش یافته است. آن‌ها در نامه‌ای سرگشاده، از این آزمایشگاه‌ها خواستند تا به کارکنان «حق هشدار» بدهند،به‌طوری‌که بتوانند در صورت بروز نگرانی‌های ایمنی، به نهادهای ناظر، اعضای هیئت‌مدیره و افکار عمومی هشدار دهند.

این نامه پس از مجموعه‌ای از استعفاهای پرسر‌و‌صدا در OpenAI منتشر شد؛ از جمله ایلیا سوتسکِوِر، دانشمند ارشد شرکت، که در نوامبر سال گذشته به برکناری سم آلتمن رأی داد اما در نهایت از شرکت کنار گذاشته شد. سوتسکِوِر تاکنون به‌صورت عمومی درباره این رویدادها اظهار نظر نکرده و دلایل استعفای او نامشخص است. پژوهشگر ارشد دیگری در حوزه ایمنی، یان لایکه، نیز در ماه مه استعفا داد و اعلام کرد که فرهنگ ایمنی در OpenAI در اولویت پایین‌تری نسبت به عرضه محصولات جدید قرار گرفته است.

او تنها فردی نیست که به‌تازگی از شرکت جدا شده است. دنیل کوکوتایلو، یکی از کارکنان پیشین و از امضاکنندگان نامه سرگشاده، در ماه آوریل استعفا داد و در فضای آنلاین نوشت که دیگر اطمینان ندارد این آزمایشگاه در صورت ساخت AGI (هوش عمومی مصنوعی)،فناوری‌ای نظری که تمامی آزمایشگاه‌های پیشروی هوش مصنوعی در تلاش برای ساخت آن هستند و می‌تواند وظایف اقتصادی با ارزش را بهتر از انسان انجام دهد،رفتار مسئولانه‌ای از خود نشان دهد. پس از استعفا، کوکوتایلو از امضای توافق‌نامه عدم بدگویی که شرکت از کارکنان جداشده درخواست می‌کند، امتناع ورزید. او باور داشت که با این اقدام، میلیون‌ها دلار از سهام خود در OpenAI را از دست می‌دهد. پس از آن‌که وب‌سایت Vox گزارشی درباره مفاد این توافق‌نامه منتشر کرد، OpenAI سیاست خود را تغییر داد و اعلام کرد که از کارکنانی که از شرکت انتقاد کرده‌اند، سهامی پس نمی‌گیرد.

OpenAI در بیانیه‌ای تأکید کرد که گفت‌وگوی عمومی درباره هوش مصنوعی پیشرفته امری ضروری است. لیندسی هِلد، سخنگوی OpenAI، به نیویورک تایمز گفت: «ما به سابقه خود در ارائه ایمن‌ترین و توانمندترین سامانه‌های هوش مصنوعی افتخار می‌کنیم و به رویکرد علمی خود برای مدیریت ریسک باور داریم. ما با این دیدگاه موافقیم که بحث و بررسی دقیق در این حوزه، با توجه به اهمیت این فناوری، حیاتی است و به تعامل با دولت‌ها، نهادهای جامعه مدنی و سایر جوامع در سراسر جهان ادامه خواهیم داد.»OpenAI از اظهار نظر بیشتر به تایم درباره ادعاهای مطرح‌شده در این گزارش خودداری کرد؛ گوگل دیپ‌مایند نیز درباره این نامه سرگشاده موضع‌گیری عمومی نداشته و به درخواست تایم برای اظهارنظر پاسخ نداده است.

اما در گفت‌وگو با نشریه تایم، دو کارمند سابق OpenAI،دنیل کوکوتایلو، که در تیم حاکمیت شرکتی فعالیت می‌کرد، و ویلیام ساندرز، پژوهشگر تیم «هم‌راستاسازی فوق‌پیشرفته»،اظهار داشتند که حتی فراتر از توافق‌نامه‌های عدم بدگویی، قراردادهای محرمانگی با تعاریف گسترده که در آزمایشگاه‌های پیشروی هوش مصنوعی رایج‌اند، افشای عمومی نگرانی‌ها را برای کارکنان بسیار پرریسک می‌کند. هر دوی آن‌ها معتقدند که توانمندی سامانه‌های هوش مصنوعی در سال‌های پیش‌رو به‌طرز چشم‌گیری افزایش خواهد یافت و این تحولات پیامدهایی بنیادین برای جامعه در پی خواهند داشت. کوکوتایلو می‌گوید: «میزان مخاطره واقعاً بسیار بالاست.»

در صنایعی که تحت نظارت دولت قرار دارند، مانند امور مالی، افشاگران از حمایت قانونی دولت ایالات متحده برخوردارند و در صورت افشای تخلف، حتی می‌توانند سهمی از جریمه‌های موفق را دریافت کنند. اما از آنجا که در زمینه توسعه هوش مصنوعی پیشرفته هیچ قانون مشخصی وجود ندارد، افشاگران در این صنعت از چنین حمایت‌هایی بی‌بهره‌اند و حتی ممکن است به‌دلیل نقض قراردادهای عدم افشا یا عدم بدگویی، خود در معرض پیگرد قانونی قرار گیرند. کوکوتایلو می‌گوید: «حمایت‌های قانونی پیشین از افشاگران در اینجا کاربردی ندارد، چون این صنعت در عمل تحت نظارت نیست، و بنابراین قانونی برای بسیاری از کارهای بالقوه خطرناکی که ممکن است شرکت‌ها انجام دهند، وجود ندارد.»

ساندرز می‌گوید: «آزمایشگاه‌های AGI واقعاً در برابر هیچ‌کس پاسخ‌گو نیستند. پاسخ‌گویی مستلزم آن است که اگر سازمانی کار اشتباهی انجام دهد، اطلاعات مربوط به آن قابل اشتراک‌گذاری باشد. و در حال حاضر چنین چیزی وجود ندارد.»

ساندرز می‌گوید زمانی که در سال ۲۰۲۱ به OpenAI پیوست، امیدوار بود که شرکت درگیر مجموعه‌ای از پرسش‌های دشوار باشد: «اگر ماشینی وجود داشته باشد که بتواند همان کاری را که شما انجام می‌دهید،و برای جامعه اقتصادی ارزش دارد،انجام دهد، واقعاً چقدر قدرت در یک جامعه دارید؟ آیا می‌توانیم جامعه‌ای دموکراتیک داشته باشیم وقتی جایگزینی برای نیروی کار انسانی وجود دارد؟» اما پس از انتشار ChatGPT در نوامبر ۲۰۲۲، OpenAI به‌تدریج به شرکتی کاملاً متفاوت تبدیل شد. ارزش آن به ده‌ها میلیارد دلار رسید و مدیران آن در رقابتی نفس‌گیر برای پیشی‌گرفتن از رقبا قرار گرفتند. ساندرز می‌گوید اکنون به‌نظر می‌رسد پرسش‌هایی که او امیدوار بود OpenAI به آن‌ها بپردازد، «به تعویق افتاده‌اند و اولویت خود را در برابر عرضه محصول بعدی و پرزرق‌وبرق‌تر از دست داده‌اند.»

در نامه سرگشاده، ساندرز، کوکوتایلو و شماری دیگر از کارکنان فعلی و پیشین خواستار آن شدند که آزمایشگاه‌های هوش مصنوعی از وادار کردن کارکنان به امضای توافق‌نامه‌های عدم بدگویی دست بکشند؛ فرایندی برای مطرح کردن نگرانی‌ها نزد اعضای هیئت‌مدیره، نهادهای نظارتی و گروه‌های دیده‌بان ایجاد کنند؛ و «فرهنگ انتقاد آزادانه» را تقویت نمایند. در این نامه آمده است که اگر افشاگر، پس از تلاش برای بیان نگرانی‌ها از طریق این مسیرها، تصمیم به انتشار عمومی آن‌ها بگیرد، شرکت‌های هوش مصنوعی باید متعهد شوند که هیچ‌گونه تلافی یا اقدام تنبیهی علیه او انجام نخواهند داد.

حداقل یک کارمند فعلی OpenAI نامه سرگشاده را در شبکه‌های اجتماعی مورد انتقاد قرار داده و استدلال کرده است که عمومی‌کردن نگرانی‌های ایمنی توسط کارکنان، رسیدگی به مسائل بسیار حساس را برای آزمایشگاه‌ها دشوارتر می‌کند. جاشوا آچیم، دانشمند پژوهشی در OpenAI، در پستی در ایکس (پلتفرمی که پیش‌تر با نام توییتر شناخته می‌شد) نوشت: «اگر می‌خواهید ایمنی در OpenAI به‌درستی عمل کند، یک پایه‌ی اولیه از اعتماد باید وجود داشته باشد؛ جایی که همه‌ی افرادی که با ما کار می‌کنند بدانند که ما محرمانگی‌شان را حفظ خواهیم کرد. این نامه، ترک بزرگی در آن پایه ایجاد کرده است.»

با این حال، این نوع استدلال تا حدی بر پایه‌ی رفتار مسئولانه‌ی رهبران OpenAI استوار است،رفتاری که رویدادهای اخیر آن را زیر سؤال برده‌اند. ساندرز معتقد است که سم آلتمن، مدیرعامل شرکت، ذاتاً در برابر پاسخ‌گویی مقاومت می‌کند. او می‌گوید: «من فکر می‌کنم به‌ویژه درباره‌ی سم آلتمن، او با نظارت و پاسخ‌گویی بسیار ناخوشایند است. نشانه‌اش هم این است که هر گروهی که ممکن است نقشی نظارتی بر او داشته باشد،از جمله هیئت‌مدیره و کمیته ایمنی و امنیت،آلتمن احساس می‌کند باید شخصاً در آن حضور داشته باشد، و هیچ‌کس نمی‌تواند به او «نه» بگوید.»

پس از آن‌که آلتمن در نوامبر گذشته توسط هیئت‌مدیره پیشین OpenAI برکنار شد، شرکت حقوقی WilmerHale تحقیقی درباره شرایط این برکناری انجام داد و به این نتیجه رسید که «رفتار او دلیلی برای عزل وی فراهم نکرده است.» هیئت‌مدیره جدید OpenAI بعداً «اعتماد کامل» خود را به رهبری آلتمن ابراز کرد و در ماه مارس، کرسی هیئت‌مدیره‌ی او را بازگرداند. لری سامرز و برت تیلور، دو عضو جدید هیئت‌مدیره، اخیراً در اکونومیست نوشتند: «ما آقای آلتمن را در همه مسائل مرتبط بسیار صریح و در تعامل با تیم مدیریتی خود همواره خوش‌رفتار یافته‌ایم.»

برای ساندرز، پاسخ‌گویی امری حیاتی است،و بدون وجود نهادهای ناظر بیرونی و مستقل، نمی‌توان آن را محقق ساخت. او می‌گوید: «اگر بخواهیم یک توسعه‌دهنده‌ی AGI واقعاً در خدمت منافع عمومی باشد و به آرمان ساخت هوش عمومی مصنوعی ایمن و مفید پایبند بماند، باید سازوکارهایی برای نظارت و پاسخ‌گویی وجود داشته باشند که به‌راستی شرکت را به این آرمان متعهد نگه دارند. در آن صورت، در جهانی ایده‌آل، اهمیتی نداشت که چه کسی بر صندلی مدیرعامل نشسته است. این واقعاً نگران‌کننده است اگر جهان ناچار باشد مدام تشخیص دهد کدام مدیرعامل در این شرکت‌های هوش مصنوعی دارای شخصیت اخلاقی بهتری است. این وضعیت خوبی نیست که در آن قرار داریم.»


درباره نویسنده:
بیلی پریگو و ویل هنشال روزنامه‌نگارانی هستند که برای نشریات معتبری مانند واشنگتن پست و تایمز فعالیت کرده‌اند و بیشتر به خاطر پوشش اخبار فناوری، اطلاعات نهادهای امنیتی و رسانه‌های اجتماعی شناخته می‌شوند.

منبع: New York Times

مطالب مرتبط