برنامه ریزی برای رسیدن به AGI و فراتر… (بخش دوم)
این مقاله به قلم سم آلتمن مدیر و بنیان گذار شرکت OpenAI نوشته شده و در آن به آینده هوش مصنوعی می پردازد.
نزدیک تر شدن به AGI و محتاط تر شدن ما نسبت به مدل های هوش مصنوعی
در مرحله بعدی ما در حال کار برای ایجاد مدل های همسوتر با قابلیت هدایت و آموزش بیشتر هستیم. تغییر مسیر ما از مدل هایی مانند اولین نسخه ChatGPT-3 به InstructGPT خواهد بود و ChatGPT تنها یک نمونه اولیه از این مدل بود.
به ویژه، ما فکر می کنیم بسیار مهم است که جامعه و مردم در مورد محدودیت های گسترده درباره نحوه استفاده از هوش مصنوعی به یک توافق برسند، اما در این مسئله، کاربران و جامعه استفاده کنندگان از هوش مصنوعی به صورت فردی اختیارات زیادی دارند. در نهایت امید ما این است که نهادهای جهانی بر سر اینکه مرزهای هوش مصنوعی باید در کجا باشند به توافق برسند. در افق کوتاه مدت ما قصد داریم آزمایش هایی را برای ورودی های خارج از مدل را روی محصولاتمان، انجام دهیم. به نظر ما مردم و کسب و کارها در سراسر جهان باید در این زمینه بیشتر به تجربه و آزمایش و خطا بپردازند تا بتوانند برای تصمیم گیری های پیچیده درمورد AGI آماده شوند.
“تنظیمات پیشفرض” در محصولات ما احتمالاً کاملاً محدود خواهد بود، اما ما قصد داریم تغییر رفتار هوش مصنوعی را برای استفاده کاربران حرفه ای تر، آسان تر کنیم. ما حقیقتاً به توانمندسازی افراد برای تصمیم گیری درباره کارهای خود و قدرت ذاتی “تنوع ایده ها” باور داریم.
با قویتر شدن مدلهای ما و البته آزمایش هایی که برای رسیدن به تکنیک های جدیدتر روی محصولاتمان انجام می دهیم ( صرف نظر از اینکه این آزمایش شکست می خورند یا موفق می شوند) ما تصمیم داریم تا این مدلها را گسترش دهیم. برنامه شرکت OpenAI در کوتاه مدت این است که از هوش مصنوعی برای کمک به انسان ها در ایده های اولیه استفاده کنیم، و در بلند مدت از هوش مصنوعی برای ارائه ایده های جدید و طراحی تکنیک های جدید استفاده کنیم.
نکته مهم در اینجا این است که ما فکر می کنیم باید با هم در زمینه افزایش ایمنی و قابلیت های هوش مصنوعی پیشرفت کنیم. به نظر ما این یک دوگانگی نادرست خواهد بود اگر در مورد این دو مسئله به صورت جداگانه صحبت کنیم. این دو حوزه از بسیاری جهات به یکدیگر مشابه و در تعامل هستند. بهترین تضمین های امنیتی ما از کار با قوی ترین مدلهای ما حاصل شده است. با این به نظر من مهم است که نسبت پیشرفت ایمنی استفاده به پیشرفت قابلیت ها، روندی افزایشی داشته باشد.
در گامهای بعدی، ما امیدواریم که یک گفتگوی جهانی در مورد سه سوال کلیدی داشته باشیم: نحوه اداره این سیستم ها، نحوه توزیع عادلانه مزایا و قدرت هوش مصنوعی، و نحوه اشتراک عادلانه دسترسی به هوش مصنوعی.
علاوه بر این سه پرسش بنیادی، ما سعی کرده ایم ساختار خود را به گونه ای تنظیم کنیم که انگیزه های اولیه شروع ایده هوش مصنوعی با یک نتیجه خوب هماهنگ باشند. ما یک بند در منشور شرکت خود داریم که طبق آن متعهد شده ایم به جای مسابقه با دیگران، به سایر شرکت ها و حتی رقبا کمک کنیم تا در استاندارد های ارتقا ایمنی استفاده از هوش مصنوعی پیشرفت کنند و به مراحل نهایی توسعه AGI برسند.
ما برای خود محدودیت هایی را تعریف کرده ایم. به طوری که به ما انگیزه ای برای تلاش در راه ایجاد چیزی که بالقوه فاجعه بار یا مضر برای جامعه باشد، ندهد. ما در حقیقت یک سازمان غیرانتفاعی داریم که بر ما ریاست می کند و به ما اجازه می دهد تا برای خیر و صلاح بشریت کار کنیم ( و این منافع بر هر نوع منفعت مادی ارجحیت دارند) از جمله به ما اجازه می دهد که کارهایی مانند لغو تعهدات به سهامداران را در صورت نیاز انجام دهیم. این نیاز قطعاً برای ایمنی و حمایت از AGI و فلسفه هوش مصنوعی و مخاطرات آن، برنامه ریزی شده است. به عبارت ساده تر ما در رعایت و پایبندی به قوانین اخلاقی در رابطه با هوش مصنوعی هیچ محدودیتی را برای خود تعریف نکرده ایم.
ما فکر می کنیم افرادی یا شرکت هایی که تلاش هایی همانند ما دارند، بهتر است قبل از انتشار محصولشان به بررسی دقیق و مستقل آن بپردازند(در سال 2024 بیشتر درباره این صحبت خواهیم کرد) در بعضی مواقع شاید بهتر باشد که قبل از انتشار مدل های هوش مصنوعی و به اصطلاح آموزش آنها، یک بررسی مستقل و دقیق روی آنها انجام شود. و برای آنها که از ما پیشرفته تر هستند یا مدل های هوش مصنوعی پیشرفته تری را آموزش می دهند و قصد انتشار آنها را دارند، به توافقی برای محدود کردن نرخ رشد، برسند. ما فکر می کنیم که تدوین استانداردهای عمومی برای اینکه چه زمانی یک AGI باید تصمیم بگیرد که آموزش و بارگذاری اطلاعات را متوقف کند، یا تصمیم بگیرد که یک مدل برای عرضه بی خطر است یا اینکه بخواهد یک محصول هوش مصنوعی را از استفاده عمومی خارج کند، مهم هستند. در نهایت من و همه همکارانم فکر می کنیم که این بسیار مهم است که، دولت های بزرگ جهان به توافق و بینشی درباره استفاده از هوش مصنوعی برسند.
در بلند مدت
ما معتقدیم که آینده بشریت باید توسط انسان ها تعیین شود و برای ما مهم است که نتایج پیشرفتمان را با مردم و جامعه به اشتراک بگذاریم. به اعتقاد ما تمامی تلاش هایی که برای ایجاد AGI می شود و مشاوره ها و جلساتی که برای تصمیم گیری های بزرگ، انجام می شود، باید مورد بررسی دقیق و در انظار عمومی صورت بگیرد.
اولین ساختار AGI فقط یک نقطه در امتداد یک روند پیوسته برای ارتقا هوش مصنوعی خواهد بود. ما فکر می کنیم که این امکان وجود دارد که پیشرفت از آنجا ادامه یابد و احتمالاً روند پیشرفتی که از سالهای گذشته در این حوزه شاهدش بودیم، برای مدت طولانی ادامه دار خواهد بود. اگر این مفروضات درست باشد، جهان ما می تواند در آینده بسیار متفاوت از امروز باشد و البته مخاطرات آن هم می تواند بزرگ و عجیب باشد. یک AGI فوق هوشمند نادرست شاید بتواند صدمات بسیار جدی را به جهان وارد کند. یک رژیم خودکامه یا یک رهبر دیکتاتور که قادر به دسترسی به این اطلاعات باشد می تواند منشاء مسائل بغرنجی برای بشریت باشد.
هوش مصنوعی که بتواند پیشرفت علم را سرعت بخشد، مسئله خاصی است که ارزش فکر کردن را دارد و شاید از هرچیز دیگری در این دنیا تاثیرگذارتر باشد. این امکان بالقوه وجود دارد که مدل های هوش مصنوعی بتوانند قادر به سرعت بخشیدن به پیشرفت خود باشند، به عبارت دیگر تکنولوژی AGI می تواند باعث شود که تغییراتی شگرف با سرعت غیرمنتظره، اتفاق بیافتند ( حتی اگر شروع آن ها به آرامی اتفاق بیافتد ما انتظار داریم که مراحل پایانی بسیار سریعتر اتفاق بیافتند). ما فکر می کنیم ایمن کردن یک اجرای اولیه آهسته، آسان تر باشد، و هماهنگی برای کاهش سرعت پیشرفت AGI در مقاطع بحرانی یک مسئله بسیار مهم خواهد بود ( حتی در زمانی که برای حل مشکلات فنی نیازی به طی کردن یک روند آنالوگ نداشته باشیم)
انتقال موفقیت آمیز به دنیایی با هوش مصنوعی شاید مهم ترین، امیدوارکننده ترین، و ترسناک ترین پروژه در تاریخ بشر باشد. موفقیت قطعی و تضمین شده نیست و ما امیدواریم خطرات بالقوه( نقاط منفی بی حد و حصر مثل امکان دسترسی افرادی با نیت بد یا پیشرفت غیرقابل کنترل) همه مارا در سراسر جهان برای استفاده از این تکنولوژی به یک همفکری برساند و در نهایت بتوانیم برای استفاده از AGI با یکدیگر متحد شویم.
ما می توانیم جهانی را تصور کنیم که در آن بشریت به درجه ای از شکوفایی رسیده است که شاید امروز برای هیچکس تصور آن ممکن نباشد. ما در شرکت OpenAI امیدواریم که بتوانیم با یک AGI همسو با خیر و صلاح عمومی به شکوفایی و رسیدن به آن رویا، کمک کنیم.
دیدگاهتان را بنویسید