UA-119771777-1
هوش مصنوعی

چرا الون ماسک از هوش مصنوعی می ترسد؟

الون ماسک ( Elon Musk ) معمولا در سخنرانی های خود نسبت به تکنولوژی های نوین خوش بین است؛ از اتومبیل های الکتریکی تا سفر به مریخ و کلونی سازی در آن ! او نام خود را با شعار آینده می تواند سریع تر اتفاق بیفتد، نام خود را بر سر زبان ها انداخت. اما وقتی سخرانی های او را بررسی کنیم، موضوع هوش مصنوعی شرایط بسیار متفاوتی برای او دارد. او در سال ۲۰۱۴ در MIT سخنرانی کرد و آن را “بزرگترین تهدید موجود” انسانی دانست و آن را با “احضار دیو” مقایسه کرد.

این ترس ها در یکی از مصاحبه های الون ماسک توسط Karata Swisher مطرح شد. Musk به Swisher گفت: “هوش مصنوعی از انسان هوشمندانه تر رفتار خواهد ، مقایسه سطح این هوش، هماهنند هوش انسان و گربه خواهد بود! “من فکر می کنم ما باید در مورد پیشرفت AI بسیار مراقب باشیم.”

برای بسیاری از مردم، حتی بسیاری از محققان یادگیری ماشین،هوشمندی بیشتر هوش مصنوعی نسبت انسان یک رویای دور از دسترس است. ما هنوز در تلاش برای حل مشکلات حتی ظاهرا ساده با یادگیری ماشین هستیم. ماشین های خودران یا بدون سرنشین هوشمند، در لحظه های پیچیده و شرایط غیر معمول ، همچنان مشکلاتی دارند. بسیاری از چیزهایی که به طور غریزی در انسان وجود دارد مانند پیش بینی حرکت در دوچرخه سواری، شناسایی کیسه پلاستیکی فلپ در باد در جاده ها و … کار آموزش آن به کامپیوتر را بسیار دشوار می کند. توانایی های انسان بسیار بزرگتر به نظر می رسد و راه برتری هوش مصنوعی از هوش انسان طولانی است.

با این حال، الون ماسک به سختی این هشدار ها را می دهد. دانشمندان هوش مصنوعی در دانشگاه آکسفورد و UC Berkeley، همچنین دانشمندی مانند استفن هاوکینگ و بسیاری از محققان که نتایج مهمی را منتشر می کنند، با Elon Musk موافق هستند که هوش مصنوعی می تواند بسیار خطرناک باشد. آنها نگران هستند که ما مشتاقانه در جهت راه اندازی سیستم های قدرتمند AI کار کنیم و این کار را می توانیم در شرایطی که برای اشتباهات خطرناک برنامه ریزی نکرده ایم انجام دهیم که می تواند غیر قابل جبران باشد.

اگر ما این نگرانی ها را جدی بگیریم، باید چه کار کنیم؟ افرادی که در معرض خطرات AI قرار دارند، به شدت در جزئیات رویکردهایشان اختلافاتی دارند، اما در مورد یک مورد با هم توافق دارند : ما باید تحقیقات بیشتری انجام دهیم.

الون ماسک می خواهد دولت ایالات متحده آمریکا یک یا دو سال از امکاناتش برای درک مشکلات و خطرات هوش مصنوعی را بررسی کند تا بتواند راه حل های رفع آنها را در نظر بگیرد. او در مصاحبه با Swisher ایده هایش را مطرح کرد؛

مصاحبه :

◊ توصیه من تعیین زمان طولانی برای این تحقیقات است. من فکر می کنم که ما باید یک کمیته دولتی داشته باشیم که این بررسی را شروع کند. یک یا دو سال طول می کشد دانش عمیقی درباره AI یا سایر تکنولوژی هایی که احتمالا خطرناک هستند به دست آید ولی اولویت اول ما هوش مصنوعی است.بر اساس این بینش، قوانین جدید را با مشورت با صنعت ارائه می کنیم که با احتمال بالایی ظهور یک پروسه امن هوش مصنوعی به ارمغان خواهد آمد.

شما در مورد خطرات هوش مصنوعی خیلی فکر می کنید،آیا به نتیجه رسیده اید که این اتفاق می افتد؟

◊ دقیق نمی دانم ولی قابل حدس است.

در مورد گوگل چطور؟می تواند راه حل قطعی ارائه دهد ؟

نه، به نظر من، این اتفاق نمی افتد.

آیا فکر می کنید که گوگل و فیس بوک همچنان قدرت بیشتری در این زمینه دارند؟ و به همین دلیل شما OpenAI و چیزهای دیگر را آغاز کردید؟

بله، OpenAI در مورد دموکراتیزه کردن قدرت AI بود. به همین دلیل است که OpenAI به عنوان یک نهاد خصوصی ایجاد شده است تا اطمینان حاصل شود که قدرت AI دائما آنالیز شود و در صورت نیاز قدرت انحصار هوش مصنوعی را کاهش دهد.

از دیدگاه الون ماسک ، در اینجا چیزی است که در حال انجام است: محققانی در دنیا، به ویژه در آلفابت گوگل واحد درک عمیق که این سازمان های تحقیقاتی هوش مصنوعی AlphaGo و AlphaZero را توسعه دادند، مشتاقانه روی سیستم های پیچیده و قدرتمند AI کار می کنند. از آنجا که برخی افراد اعتقاد ندارند که AI خطرناک است و به اندازه کافی استانداردهای ایمنی و احتیاط را به کار نبرده اند.

ما نمی خواهیم از اشتباه های گذشته خود پیرامون هوش مصنوعی درس بگیریم 

Max Tegmark استاد فیزیک دانشگاه MIT، در گفتگوی سال گذشته با Maureen Dowd روزنامه نگار مجله Vanity Fair با نگاهی احساسی به این موضوع گفت: “وقتی در آتش سوختیم و اموالمان نابود شد، وسایل اطفاء حریق را اختراع کردیم. هنگامی که با اتومبیل تصادف کردیم، کمربند ایمنی، کیسه هوا و چراغ راهنمایی رانندگی را اختراع کردیم. اما در مورد سلاح های هسته ای و هوش مصنوعی هنوز از اشتباه های خود درس نگرفته ایم.

در حقیقت، اگر هوش مصنوعی به اندازه کافی قدرتمند باشد، ممکن است نیاز به برنامه ریزی در مورد سرعت پیشرفت قدرت آن داشته باشیم. نیک بوستروم پروفسور دانشگاه آکسفورد، در کتاب Superintelligence که در سال ۲۰۱۴ منتشر کرد در مورد یک سیستم AI با طراحی بد را بررسی کرد و ثابت کرد که اصلاح این سیستم غیرممکن خواهد بود.

راه اندازی سیستم هوش مصنوعی مانند راه اندازی ساخت یک موشک است، همه چیز باید درست قبل از اینکه ما شلیک را انجام دهیم دقیق بررسی شده باشد.

سام آلتمن مدیرعامل Y Combinator در مورد گفتگوی Musk و Dowd گفت: “در چند دهه آینده، ما به سمت خود تخریبی پیش می رویم و یا به سوی استعمار نسل انسان ها برای هوش مصنوعی خواهیم بود؛ حق با الون ماسک هست”.

انتظار می رود در اینده نه چندان دور، تیم های بزرگ تحقیقاتی، بر روی بررسی خطرهای احتمالی هوش مصنوعی کار کنند که می تواند نتایجی به دست آید که برای اجرای آن هزینه های بسیار زیادی نیاز است

Leave a Reply