برنامه ریزی برای رسیدن به AGI و فراتر… (بخش اول)
این مقاله به قلم سم آلتمن مدیر و بنیان گذار شرکت OpenAI نوشته شده و در آن به آینده هوش مصنوعی می پردازد.
ما در کمپانی OpenAI به این میاندیشیم تا روزی برسد که بتوانیم اطمینان حاصل کنیم که هوش مصنوعی-سیستم های هوش مصنوعی به طور عمومی هوشمندتر از انسان شده باشند- برای همه بشریت مفید باشد.
اگر AGI (هوش مصنوعی عمومی) با موفقیت ایجاد شود، این فناوری می تواند به عنوان یک موتور توربو شارژ قدرتمند برای اقتصاد جهانی، یا کمک به کشف دانش و علوم جدید برای گذر از محدودیت های فعلی، ایفای نقش کند، نقشی که به همه ما کمک می کند تا نوع بشر را به سعادت برسانیم.
AGI در حقیقت این پتانسیل را دارد که به همه ما قابلیت های جدید و باورنکردنی بدهد. به کمک AGI ما می توانیم دنیایی را تصور کنیم که در آن ما همه تقریباً برای هر کاری به کمکی فرابشری متکی شویم و از آن برای رشد و توسعه نبوغ و خلاقیت انسانی بهره بگیریم.
از سوی دیگر AGI همچنان با خطر جدی سوءاستفاده، حوادث غیر مترقبه و ایجاد اختلالات اجتماعی روبرو خواهد بود. از آنجایی که جنبه مثبت AGI بسیار عالی است، ما معتقدیم که این ممکن یا مطلوب جامعه نیست که خود را برای همیشه، به بهانه مخاطرات، از راه توسعه محروم کند. در عوض جامعه و توسعه دهندگان AGI باید بدانند که چگونه به یک مفاهمه صحیح در استفاده از این تکنولوژی برسند.[1]
اگرچه نمی توانیم دقیقاً پیش بینی کنیم که چه اتفاقی می افتد، و البته پیشرفت فعلی ما ممکن است کند شود یا به دیوار سختی برخورد کند، اما می توانیم اصولی را که بیشتر به آنها اهمیت می دهیم بیان کنیم:
- ما می خواهیم که AGI به بشریت در راه شکوفایی و اعتلا با تمام قدرت کمک کند. ما انتظار نداریم که آینده یک مدینه فاضله بی روح و خالی از انسانیت باشد، اما می خواهیم خوبی ها و جنبه های مثبت آن را به حداکثر برسانیم و در مقابل بدی ها و نقطه های منفی را به حداقل برسانیم و از AGI در جهت تقویت ارزش های انسانی استفاده کنیم
- ما میخواهیم مزایا، دسترسی، و مدیریت AGI به طور گسترده و فراگیر و منصفانه برای تمام جهان به اشتراک گذاشته شود.
- ما میخواهیم با موفقیت از خطرات عظیم عبور کنیم. در مواجهه با این خطرات، ما متوجه هستیم که آنچه در تئوری درست یا آسان به نظر می رسد، اغلب عجیب تر از آنچه انتظار می رود در عمل مواجه می شود. ما معتقدیم که باید به طور مدام یاد بگیریم و با به کار گیری نسخه های کم قدرت تر این فناوری در نهایت به آهستگی به یک شانس خوب برای موفقیت دائمی برسیم.
————————————————————————————————————————————
[1] به نظر می رسد که “هدایای” زیادی نسبت به آنچه که مورد انتظار ما بود، به ما داده شده است : به عنوان مثال در ابتدا به نظر می رسید که ایجاد یک AGI به مقدار بسیار زیادی محاسبات نیاز داشته باشد، بنابراین افراد زیادی در دنیا نیستند که بدانند چگونه با آن کار کنند. اما امروزه به نظر می رسد مفهوم اصلی رقابت و حضور عوامل به شدت تکامل یافته، و تکامل خود هوش مصنوعی به گونه ای بوده است که ما واقعاً در ابتدا نمی توانستیم مشاهده یا پیش بینی آن را داشته باشیم. در حقیقت باید گفت این حوزه بسیار فراتر از خوشبینانه ترین پیشگویی ها عمل کرده و تقریباً هیچ کس پیش بینی نکرده بود که ما در مدل های زبانی از پیش آموزش دیده (GPT) پیشرفت زیادی داشته باشیم، به حدی که آن مدلها بتوانند به صورت گروهی یاد بگیرند، ترجیحات را بشناسند و روز به روز به خروجی “انسانی” نزدیک شوند و….
AGI ممکن است در آینده دور یا نزدیک اتفاق بیافتد. سرعت برخاستن از یک AGI اولیه به جانشین های بسیار قدرتمندتر می تواند آهسته یا سریع باشد. بسیاری از ما فکر می کنیم ایمن ترین روش در این ماتریس دو به دو، یک جدول زمانی کوتاه و یک سرعت آهسته باشد. به نظر می رسد خطوط زمانی کوتاهتر (تایم لاین) برای هماهنگی ما با این پدیده سازگاری بیشتری داشته باشد، و یک تیک آف آهسته تر به ما زمان بیشتری می دهد تا به طور تجربی نحوه حل مشکلات ایمنی و سازگار شدن با آن را دریابیم.
در آینده نزدیک
چندین کار وجود دارد، که ما در OpenAI فکر می کنیم فعلاً برای آماده شدن برای AGI مهم است که انجام دهیم.
اول، با ایجاد متوالی چرخه ای از سیستم های متوالی که به تدریج قدرتمند تر شوند، می خواهیم به سمت استقرار AGI برویم. می خواهیم آنها را راه اندازی کنیم و تجربه کار با آنها را در شرایط واقعی به دست آوریم. ما معتقدیم که این بهترین راه برای مدیریت دقیق AGI است، یعنی فکر می کنیم که انتقال تدریجی به دنیایی با سیستم AGI بهتر از یک تغییر ناگهانی و یک جهش بلند است. ما انتظار داریم که این هوش مصنوعی قدرتمند سرعت پیشرفت علمی و شاید عملی در جهان را بسیار سریع تر کند، و فکر می کنیم که بهتر است به صورت تدریجی با آن سازگار شویم.
یک گذار تدریجی به مردم، سیاستگذاران و موسسات زمان کافی را می دهد تا بفهمند چه اتفاقی در حال رخ دادن در این حوزه است. آنها زمان کافی را خواهند داشت تا خودشان مزایا و معایب این سیستم ها را تجربه کنند، جنبه های اقتصادی این پدیده را درک کنند تا بتوانند مقرراتی منطقی را برایش تدوین کنند. همچنین این نحوه تکامل این امکان را به جامعه و هوش مصنوعی می دهد تا با هم تکامل پیدا کنند و مردم به طور جمعی متوجه شوند که از این تکنولوژی چه می خواهند و در این مسیر حداقل ریسک را متحمل شوند.
در حال حاضر ما معتقدیم که بهترین راه برای یک گذار موفقیت آمیز از چالش های پیش روی هوش مصنوعی، ایجاد یک حلقه فشرده از فیدبک ها است . یک چرخه سریع از یادگیری سریع توسط ماشین و بازخورد آنی از سمت متخصصین و جامعه کاربران. به اعتقاد من جامعه با سوالات عمده ای در مورد اینکه سیستم های هوش مصنوعی مجاز به انجام چه کاری هستند، چه سوگیری هایی خواهند داشت، آیا مشاغلی را از بین خواهند برد یا خیر، روبه رو خواهد شد. یک روند تصمیم گیری بهینه شده و واقع گرا می تواند پاسخ های قانع کننده ای به این دسته از سوالات داشته باشد، این تصمیمات البته به مسیری که فناوری جدید قرار است طی کند بستگی خواهد داشت. و البته مانند هر چیز جدیدی ما متوجه شدیم که اکثر پیش بینی های کارشناسان تاکنون اشتباه بوده است. خب باید اعتراف کنیم که این مسئله برنامه ریزی بلند مدت را سخت می کند.[2]
البته به طور کلی، ما فکر می کنیم که استفاده بیشتر و گسترده تر از هوش مصنوعی در جهان به ایده های بهتر منجر خواهد شد و می خواهیم این استفاده گسترده را رواج دهیم ( با قرار دادن API های بیشتر، اوپن سورس کردن آنها و …) ما معتقدیم که دسترسی دموکراتیک و منصفانه منجر به تحقیقات بیشتر وبهتر، و مزایای بیشتر، و در نهایت منجر به بروز ایده های جدید از سمت افراد جدید خواهد شد.
با نزدیک شدن سیستم های ما به AGI ، و ایجاد مدل های پیشرفته تر، ما در حال محتاط تر شدن نسبت به این تکنولوژی هستیم. تصمیمات ما به احتیاط بسیار بیشتری به نسبت آنچه جامعه معمولاً درباره فناوری های جدید اعمال می کند، و احتیاط بیشتری از آنچه معمولاً کاربران انتظار دارند، نیاز دارد. برخی فکر می کنند که خطرات AGI ( و سیستم های مشابه آن) ساختگی هستند. ما بسیار خوشحالتر می بودیم اگر نظر آنها درست از کار بیاید، اما در حال حاضر به گونه ای باید عمل کنیم که گویی این خطرات کاملاً وجود دارند.
در برخی مواقع، تعادل بین جنبه های مثبت و منفی ( مثل توانمند شدن افراد بدخواه در این تکنولوژی، ایجاد اختلالات اجتماعی و اقتصادی، و راه افتادن یک مسابقه نا امن بین کشورها در استفاده از هوش مصنوعی) در پیاده سازی هوش مصنوعی می تواند چالش برانگیز باشد، اما ما مطمئن هستیم که در صورت بروز مخاطرات واقعی به طور قابل توجهی امکان کاهش فعالیت و تغییر برنامه های خود را خواهیم داشت.
——————————————————————————————————————
[2] به عنوان مثال زمانی که در شروع OpenAI بودیم، انتظار نداشتیم مقیاس پذیر بودن آن به اندازه ای که به نظر می رسد مهم باشد، و پس از مدتی متوجه شدیم این مسئله نه تنها مهم بلکه بسیار حیاتی است. همچنین متوجه شدیم که ساختار اولیه ای که برای ارائه محصولاتمان ارائه کردیم به هیچ عنوان کار نمی کند- متوجه شدیم که نمی توانیم به مقدار کافی پول جمع کنیم تا بتوانیم به عنوان یک سازمان غیرانتفاعی ادامه بدهیم- بنابراین مجبور شدیم ساختار جدیدی درست کنیم.
به عنوان یک مثال دیگر، اکنون به این باور رسیدیم که در ایده اولیه خودمان در زمینه شفافیت اشتباه میکردیم. این ایده را از این جهت تغییر دادیم که در ابتدا فکر میکردیم همه چیز را باید منتشر کنیم( در برخی از موارد به سمت متن باز-اوپن سورس- حرکت کردیم و انتظار داریم که در آینده موارد بیشتری را به بخش متن باز ببریم) اما اکنون به این نتیجه رسیده ایم که، ابتدا باید به ایمنی اشتراک گذاری فکر کنیم، باید دسترسی امن به اطلاعات را تضمین کنیم و معایب و مزایای انتشار یک تکنولوژی را پیش از انتشارش بررسی کنیم و مطمئن شویم که آنچه که ارائه می شود همان چیزی است که عموم جامعه می خواهد. ( به وضوح متوجه شدیم در این حوزه تعارض منافع و نواسانات زیادی وجود دارند.)
پایان بخش اول
دیدگاهتان را بنویسید