ماهنامه شبکه - دی 1393 شماره 164
اشاره:
نگرانی از آینده هوش مصنوعی از مدتها پیش آغاز و با ساخت فیلمها و مستندهای علمی و مقالات مختلف فراگیر شده است.
نگرانی از آینده هوش مصنوعی از مدتها پیش آغاز و با ساخت فیلمها و مستندهای علمی و مقالات مختلف فراگیر شده است. این اواخر نیز با اظهار نگرانی افراد مطرح در سطح جهانی پررنگتر شده است. با وجود اینکه ابراز مخالفت با چنین افرادی کار سادهای نیست و باید بااحتیاط در این زمینه اظهار نظر کرد، اما مطالعه تاریخ و بهطور خاصتر تاریخ معاصر علوم کامپیوتر نشان داده است که افرادی در سطوح بالای علمی و مدیریتی، در برههای از زمان اظهار نظرهایی اشتباه کردهاند که پس از گذشت چند سال به عباراتی عجیب و گاهی خندهدار بدل شدهاند. بهعنوان نمونه، عبارت معروف بیل گیتس در سال 1981 را بهخاطر بیاورید که همزمان با معرفی IBM PC گفته بود که 640 کیلوبایت RAM برای هر فرد کافی خواهد بود و به بیش از آن نیازی نخواهد شد. با وجود اینکه پشتیبانی سیستمهای 64 بیتی امروز از 128 گیگابایت RAM، این اظهار نظر را از شخصی در سطح بیل گیتس عجیب و بعید جلوه میدهد، در آن زمان چنین صحبتی کاملاً پذیرفتنی بود. نکته اینجا است که حتی انسانهای بزرگ نیز به دلیل ذات انسان بودن آنها نمیتوانند تمام شرایط آینده را پیشبینی و تأثیر آنها را در نظر خاص خود اعمال کنند و هرکس تنها به وسعت ذهن خود از آینده سخن میگوید. هرچند این وسعت ذهن برای بسیاری افراد نسبت به دیگران بیشتر است، اما در هر حال محدود است.
برای روشنتر شدن مسئله، یک مثال فرضی را مطرح میکنم. فرض کنید بارش باران در قاره اروپا در چند سال اخیر هر سال 5 درصد نسبت به سال قبل رشد داشته باشد. با این آمار پیشرفته نمیتوان بهراحتی پیشبینی کرد که مثلاً 50 سال بعد کل این قاره در اثر بارش باران در آب غرق میشود! آیا اصلاً کره زمین آن میزان آب دارد که بخار بخشی از آن بتواند در قالب باران یک قاره را در آب غرق کند؟! بنابراین، روند پیشروی یک رویداد که در مقطعی از زمان از نظم خاصی پیروی میکند، نمیتواند تا مدت زمان نامحدودی ادامه پیدا کند. شاید به نظر برسد که چنین مثالی در دنیای واقعی مصداقی ندارد. در ادامه، قصد دارم مصداق واقعی از این مثال را مطرح کنم.
بنابر یک نظریه مبتنیبر مشاهده تاریخ سختافزار کامپیوتر، نخستین بار در سال 1965 قانونی تحت عنوان «قانون مور» مطرح شد که در بسیاری از مقالهها و نشریهها نیز به آن استناد شده است. طبق این قانون، تعداد ترانزیستورها در واحد سطح مدارات مجتمع، در هر دو سال تقریباً دو برابر میشود. این نظریه که توسط گوردون مور، یکی از بنیانگذاران شرکت اینتل مطرح شده است، طی این سالها معیار خوبی برای محاسبات و پیشبینیهای آینده بوده است. اما اکنون با اظهار نظر خود اینتلیها و صاحبنظران دیگر، چنین بهنظر میرسد که ممکن است به انتهای اعتبار این قانون نزدیک شویم. این قانون نیز حد و شرایطی داشته است. اگر قرار بود این قانون تا بینهایت ادامه پیدا کند، باید تصور کنیم روزگاری اندازه ترانزیستورها از ابعاد الکترونها نیز کوچکتر شود که امکانپذیر نیست. پروفسور استیون هاوکینگ، فیزیکدان سرشناس بریتانیایی میگوید: «اگر بشر وسیلهای بسازد یا نرمافزاری بنویسد که واقعاً هوشمند باشد، معلوم نیست چه اتفاقی بیفتد.» نگران است آن روز آغازی بر پایان کار آدمیزاد باشد. الون ماسک، رئیس شرکت تسلا نیز گفته است: «هوش مصنوعی افسارگسیخته بزرگترین تهدید برای بشر است.» او نگران است عاقبت همه ما، له شدن زیر پاشنه موجوداتی حسابگر و بیعاطفه با هوش مصنوعی باشد. پروفسور نیک بوستروم، استاد دانشگاه آکسفورد هم گفته است: «احتمالاً در عرض یک قرن، موجوداتی با هوش مصنوعی دنیای ما را به آخر برسانند.» ری کورزوایل، مدیر فنی گوگل نیز از پیشرفت هوش مصنوعی ابراز نگرانی کرده است.
پیشرفت هوش مصنوعی نیز میتواند همانند پیشرفت بسیاری از چیزها مثل دینامیت اختراع آلفرد نوبل و در پی آن ساخت سلاحهای انفجاری مختلف، موجب چالشهایی در دنیا و ایجاد ناامنیها و مسمومیتهای علمی و اجتماعی شود. اما از نظر من، هیچ هوشی هرگز قادر نخواهد بود بر مغز انسان چیره شود و بر آن برتری یابد. از نگاه من، مغز انسان این پتانسیل را دارد که بسیار سریعتر و دقیقتر از پیشرفتهترین کامپیوترهای ساخت بشر محاسبه و تحلیل کند. اینکه انسان امروزی پرخطا، کند و فراموشکار است، دلیل این نیست که پیشرفتهای علوم زیستی و اعصاب و تکامل بیولوژیک انسان صبر میکند تا هوش ساخته شده توسط همین مغز بر خود چیره شود. حتی تحلیل و پردازش مغز پرخطای فعلی بشر نیز بسیار سریعتر از سریعترین کامپیوترهای دنیا است، ضمن اینکه برای برخی از سادهترین تحلیلهای مغزی ما حتی هنوز الگوریتمی طراحی نشده است. در نگاهی ساده، آیا پیشرفتهترین الگوریتمهای پردازش تصویر قادر به تشخیص یک پرتقال له شده روی زمین هستند؟ حتی اگر از رنگ نارنجی آن حدس بزند، آیا میتواند تشخیص دهد آن میوه له شده نارنجی، نارنگی نبوده است؟! چیزی که انسان در کسری از ثانیه تشخیص میدهد و از فرط سادگی حتی به این سرعت تشخیص خود توجه هم نمیکند. در نگاهی پیچیدهتر، آیا کامپیوتر مفهوم الگوریتمهایی تحت عنوان دروغ، وانمود، صبر مدیریتی، رندی و زیرکی، تصمیم احساسی، ترجیح عقلی، انتقام، علاقه و بسیاری از موارد خاص انسان یا مشترک بین انسان و حیوان را میداند و برای مدلسازی کامل اینها روشی تعریف شده است؟
در مقابل تمام نگرانیها از چیره شدن هوش مصنوعی به هوش انسان، میخواهم نظریهای را بدون اثبات مطرح کنم. زمانی که راههای ورود یکباره دادههای انبوه به مغز انسان کشف شود و علوم ثبت و بازیابی اطلاعات در مغز به تکامل برسد، انسان بهمرور توانایی هر آنچه را یک کامپیوتر انجام میدهد، با سرعت و دقت بالاتری کسب میکند و با قدرت تحلیل و ساختار یادگیری مغز و مدد شعور و احساس، به تمام علوم دنیا چیره خواهد شد.