هوش مصنوعی توزیع شده (DAI) که هوش مصنوعی غیرمتمرکز نامیده میشود، زیرمجموعهای از تحقیقات هوش مصنوعی است که به توسعه راهحلهای توزیع شده برای مسائل اختصاص دارد. DAI ارتباط نزدیکی با سامانههای چند عامله دارد و نقش مهمی در پیشبرد دستاوردهای هوش مصنوعی داشته است. در این مقاله قصد داریم هوش مصنوعی توزیعی و تجمیعی را بررسی کنیم.
هوش مصنوعی توزیعی چیست؟
در سال 1975 هوش مصنوعی توزیع شده به عنوان زیرمجموعه ای از هوش مصنوعی ظهور کرد که با تعاملات بین عوامل هوشمند سروکار داشت. سیستمهای هوش مصنوعی توزیع شده به عنوان گروهی از موجودات هوشمند، به نام عاملها، که با همکاری همزیستی یا رقابت تعامل برقرار میکنند تصور میشد. DAI به دو دسته سیستمهای چند عامله و حل مسئله توزیع شده تقسیم میشود. در سیستمهای چند عاملی تمرکز اصلی بر آن است که چگونه عاملها دانش و فعالیتهای خود را هماهنگ میکنند. برای حل مسئله توزیع شده تمرکز اصلی روی چگونگی تجزیه و و ساخت راهحلها است.
هوش مصنوعی توزیع شده (DAI) سرنام Distributed artificial intelligence روشی برای حل مسائل پیچیده یادگیری، برنامهریزی و تصمیمگیری است. به علت قابلیت موازیسازی این فناوری قادر است از محاسبات بزرگ مقیاس و پخش بودن منابع محاسباتی استفاده کند. این خصوصیات باعث میشود که بتواند مسائلی که نیاز به پردازش مجموعه دادههای بسیار بزرگ دارند را حل کند. سیستمهای DAI متشکل از گرههای مستقل پردازش یادگیری ( عامل هوشمند ) هستند که اغلب در مقیاس بسیار وسیعی پراکنده شدهاند. گرههای DAI میتوانند به مستقل عمل کنند و راهحلهای جزئی با ارتباط بین گرهها غالباً به صورت غیرهم زمان تلفیق میشوند. به علت برتری در مقیاس، سیستمهای DAI پایدار و انعطافرپذیر هستند و بنا به نیاز میتوانند با هم کار کنند. علاوه بر این، بر مبنای رویکرد DAI سیستمها به نحوی بنا شدهاند که میتوانند با تغییرات در صورت مسئله یا دادههای به کار رفته سازگار شوند.
سیستمهای چند عاملی و حل مسئله توزیع شده دو رویکرد اصلی DAI هستند. در سیستمهای چند عاملی، عاملها دانش و فعالیتهای خود را هماهنگ میکنند و در مورد فرآیندهای هماهنگی استدلال میکنند. عاملها موجوداتی فیزیکی یا مجازی هستند که میتوانند عملی از خود بروز دهند، محیطشان را درک کرده و با عوامل دیگر ارتباط برقرار کنند. عامل خودکار است و مهارتهایی برای رسیدن به اهداف دارد. عاملها با اقدامات خود حالت و وضعیت فعلی محیط خود را تغییر میدهند. تکنیکهای مختلفی برای ایجاد هماهنگی وجود دارد.
در سیستمهای DAI لزومی ندارد همه دادهها در یک نقطه تجمع یابند، بر خلاف هوش مصنوعی متمرکز که به گرههای پردازشی وابسته هستند و گرههای آن از لحاظ جغرافیایی به هم نزدیک هستند. به همین خاطر سیستمهای DAI معمولا روی نمونهای یا قسمتهایی از مجموعه دادههای بزرگتر عمل میکنند. به علاوه دیتاست اولیه در طول عملیات یک DAI سیستم ممکن است تغییر کند یا به روز شود.
چرا از هوش مصنوعی توزیعی استفاده میشود؟
هداف هوش مصنوعی توزیع شده، حل مشکلات استدلال، برنامهریزی، یادگیری و درک در هوش مصنوعی است، به ویژه اگر به دادههای زیادی احتیاج داشته باشند با توزیع مسئله در گرههای پردازشی مستقل (عوامل) اینکار به خوبی انجام میشود. برای تحقق این امر هوش مصنوعی توزیعی به فاکتورهای زیر نیاز دارد:
1. یک سیستم توزیع شده با محاسبات قوی و منعطف روی منابع نه چندان پایدارکه تا حدودی با هم مرتبط هستند.
2. هماهنگی اعمال و ارتباط گرهها
3. زیرمجموعههای دیتاستهای بزرگ و یادگیری ماشین آنلاین
دلایل زیادی برای تمایل به توزیع اطلاعات یا کار کردن با سیستمهای چند عامل وجود دارد. مشکلات اصلی در تحقیقات DAI شامل موارد زیر است:
حل مسئله موازی: عمدتا به چگونگی اصلاح مفاهیم کلاسیک هوش مصنوعی میپردازد، بنابراین میتوان از سیستمهای چند پردازنده ای و مجموعهای از رایانهها برای سرعت بخشیدن به محاسبه استفاده کرد.
حل مسئله توزیع شده (DPS): مفهوم عامل، موجوداتی مستقل که میتوانند با یکدیگر ارتباط برقرار کنند به عنوان مفهومی برای توسعه سیستمهای DPS ساخته شده است.
شبیهسازی مبتنی بر چند عامل (MABS): شاخهای از DAI که پایه و اساس شبیهسازیها را ایجاد میکند، همانطور که در بسیاری از سناریوهای شبیهسازی اجتماعی وجود دارد، نه تنها پدیدهها را در سطح کلان بلکه در سطح خرد نیز باید تجزیه و تحلیل کند.
برخی از کاربردهای مهم هوش مصنوعی توزیع شده
تجارت الکترونیک: ، در ارتباط با استراتژیهای معاملاتی، سیستم DAI از زیرمجموعههایی از نمونههای بسیار بزرگ دادههای مالی، قوانین تجارت مالی را میآموزد.
شبکهها: در ارتباطات راه ور ، سیستم DAI منابع مشترک را در یک شبکه WLAN کنترل میکند.
مسیریابی: مدل کردن جریان وسایل نقلیه در شبکههای حمل و نقل
برنامه ریزی: زمانبندی روند خرید، جایی که نهاد مدیریت منابع از بهینگی محلی و هماهنگی برای سازگاری جهانی و محلی اطمینان حاصل میکند.
سیستمهای برق الکتریکی: سیستم چند عاملی مانیتورینگ وضعیت (COMMAS) برای نظارت بر وضعیت ترانسفورماتور و سیستم ترمیم خودکار IntelliTEAM II اعمال شده را مدیریت میکند.
هوش تجمیعی چیست؟
اطلاعات اشتراکی که با علامت اختصاری CI نشان داده میشود، دربرگیرنده آن گروه از اطلاعات است که در اثر تلاشهای پیوسته و مکرر و رقابت افراد بدست میآید و در تصمیمگیریهای جمعی خود را نشان میدهد. این اصطلاح در جامعهشناسی ،علوم سیاسی، پیکرشناسی و ارزشیابیهای علمی هم طراز به چشم میخورد و ممکن است شامل اتفاق آرا، روابط کاری و اجتماعی افراد، رایگیریها، رسانههای اجتماعی و دیگر ابزار ارزیابی فعالیتهای گروهی باشد. در برابر اطلاعات اشتراکی که با علامت اختصاری IQ نشان داده میشود، معیاری برای سنجش اطلاعات اشتراکی است هرچندکه اغلب هردو این کلمات اختصاری به جای اطلاعات اشتراکی به کار میروند. اطلاعات اشتراکی محصول مشترکی از عواملی نظیر اطلاعات علمی، نرمافزار، سخت افزار و متخصصان برجستهای که دارای دیدگاههای نوین هستند. لذا میتوان پی برد که با بهرهوری از بازخورد به دست آمده در ارائه بهموقع دانش، عملکرد بهتری نسبت به تکتک سه عامل گفته شده دارد. به بیان بهتر، این پدیده، بین انسانها و روشهای پردازش اطلاعات قرار دارد. نورمن لی جانسون به چنین تصوری از اطلاعات اشتراکی با کلمه هوش هم زیستگرایی (سیمبیوتیک) اشاره میکند. عبارتی که در جامعهشناسی، تجارت، علوم رایانه، ارتباطات جمعی، و همچنین داستانهای علمی-تخیلی به کار میرود. پیر لوی در تعریف خود بیان میکند که اطلاعات اشتراکی در کل، جهان توزیع شده و دائم در حال ارتقاء است و با زمان هماهنگی دارد و در انسجام مهارتهای دیگر مؤثر است. آنچه که من به عنوان یک خصوصیت اجتناب پذیر به این تعریف اضافه میکنم این است که مبنا و هدف اطلاعات اشتراکی یک تشخیص دوطرفه است و بیشتر به غنیسازی انفرادی دلالت دارد تا به ماهیت بخشیدن بدون منطق به جوامع. بنا به گفته پژوهشگرانی چون پیر لوی و دریک د کرچف، اطلاعات اشتراکی به قابلیت شبکهای ای سی تی اس (فناوری ارتباطی اطلاعات) اشاره میکند تا طیف جندگانهای از دانش اجتماعی را با استفاده از افزایش ارتباطات بشری به صورت همزمان ارتقاء دهد.
اطلاعات اشتراکی کاملاً بر انتقال دانش و قدرت از افراد به اجتماع دلالت دارد. بنا به گفته اریک اس ریموند (۱۹۹۸) و جی سی هرز (۲۰۰۵)، چنین منبع آزادی از هوش سرانجام به تولید دستاوردی علمی منجر میشود که در مرحله بالاتری ازدانش خروجی ازنرمافزارهای شرکتهای خصوصی قرار خواهد گرفت. (فلو ۲۰۰۸). یکی از نظریهپردازهای رسانه ای به اسم هنری جنکینز اطلاعات اشتراکی را گزینه ای در برابر قدرت رسانه ای و همگرا با فرهنگ میداند. وی توجه خود را معطوف میکند به آموزش و پرورش وبه کاربردن روشهای یادگیری فرای سیستم مرسوم. هنری جنکینز مدارسی را که دانش اموزان را ترغیب به یادگیری و حل مسایل خودمختارانه میکند و با استفاده از اطلاعات اشتراکی در تحصیل عناد دارد را مورد انتقاد قرار میدهد. هم پیر اوی و هم هنری جنکینز بر این باورند که به دلیل ارتباط تنگاتنگ با فرهنگ دانش محور. اطلاعات اشتراکی برای تحقق دموکراسی مهم است و مشارکت نظرات جمعی را تقویت میکند؛ بنابراین دارای نقش به سزایی در فهم بیشتر جوامع گوناگون است.
همانند فاکتور(g) برای هوش عمومی انفرادی درک علمی اطلاعات اشتراکی به استخراج اطلاعات اشتراکی کلی فاکتور(C) کمک میکند تا گروهها توانشان را برای اجرای دامنه وسیعی ازفعالیتها نشان دهند. روشهای تعریفی، عملگرایانه و اماری مشتق از (g) هستند. به همان صورت (g) با مفهوم (IQ) مرتبط است. اندازهگیری اطلاعات اشتراکی به این صورت را میتوان به آی کیو (IQ) تعبیر کرد هرچند که این مقدار به خودی خود خارج قسمت این معادله است.
یادگیری فدرال چیست؟
یادگیری فدرال که به نام یادگیری مشارکتی نیز شناخته میشود، یک روش یادگیری ماشین است که یک الگوریتم را در چندین دستگاه لبه غیرمتمرکز یا سرورهای نگهدارنده نمونه دادههای محلی، بدون مبادله آنها آموزش میدهد. این روش برخلاف تکنیکهای سنتی یادگیری ماشین، متمرکز است که همه مجموعه دادههای محلی در یک سرور بارگذاری میشوند، و همچنین رویکردهای غیرمتمرکز کلاسیک تر که اغلب فرض میکنند نمونههای داده محلی بهطور یکسان توزیع میشوند. یادگیری فدراسیون، چند عامل را قادر میسازد تا مدل مشترک و قوی یادگیری ماشین را بدون به اشتراک گذاشتن دادهها بسازند، بنابراین اجازه میدهد تا به موارد مهم مانند حریم خصوصی دادهها، امنیت دادهها، حقوق دسترسی دادهها و دسترسی به دادههای ناهمگن بپردازید. کاربردهای آن در تعدادی از صنایع از جمله دفاع، ارتباطات از راه دور، اینترنت اشیا و داروسازی پخش شدهاست. هدف از یادگیری فدراسیون آموزش الگوریتم یادگیری ماشین، به عنوان مثال شبکههای عصبی عمیق، روی چندین مجموعه داده محلی است که در گرههای محلی وجود دارد بدون اینکه صریحاً دادههای داده رد و بدل شود. اصل کلی شامل آموزش مدلهای محلی بر روی نمونههای دادههای محلی و مبادله پارامترها (به عنوان مثال وزن و بایاس شبکه عصبی عمیق) بین این گرههای محلی در برخی از فرکانسها برای تولید یک مدل جهانی مشترک بین همه گرهها است.
تفاوت اصلی بین یادگیری فدراسیون و یادگیری توزیع شده در فرضیاتی است که در مورد خواص مجموعههای داده محلی وجود دارد، زیرا هدف اصلی از یادگیری توزیع شده موازی سازی قدرت محاسبه در جایی است که در ابتدا یادگیری فدراتیو هدف آموزش مجموعه دادههای ناهمگن است. در حالی که هدف یادگیری توزیع شده آموزش یک مدل واحد بر روی چندین سرور است، یک فرض اصلی رایج این است که مجموعه دادههای محلی بهطور یکسان توزیع میشوند (یعنی i.i.d.) و تقریباً از همان اندازه برخوردار هستند. هیچیک از این فرضیهها برای یادگیری فدراسیون ساخته نشدهاست. در عوض، مجموعه دادهها بهطور معمول ناهمگن هستند و اندازه آنها ممکن است چندین مرتبه از اندازه را دربر بگیرد. علاوه بر این، مشتریانی که درگیر آموزش فدراسیون هستند ممکن است غیرقابل اعتماد باشند زیرا در معرض خرابیهای بیشتری قرار دارند یا از تحصیل خارج میشوند، زیرا در مقایسه با توزیع یادگیری که در آن گرهها بهطور معمول مرکز دادهای هستند که دارای توانایی محاسباتی قدرتمندی هستند و با شبکههای سریع به یکدیگر متصل میشوند.
یادگیری فدراسیون متمرکز
در تنظیم یادگیری متمرکز متمرکز، از یک سرور مرکزی برای تنظیم مراحل مختلف الگوریتمها و هماهنگی همه گرههای شرکت کننده در طول فرایند یادگیری استفاده میشود. سرور مسئول انتخاب گرهها در ابتدای فرایند آموزش و جمعآوری به روزرسانیهای مدل دریافت شدهاست. از آنجا که همه گرههای انتخاب شده باید به روزرسانیها را برای یک موجود واحد ارسال کنند، ممکن است سرور به یک گلوگاه سیستم تبدیل شود.
یادگیری فدراسیون غیر متمرکز
در محیط یادگیری فدراسیون غیرمتمرکز، گرهها میتوانند خود را برای به دست آوردن مدل جهانی هماهنگ کنند. این تنظیمات از خرابیهای تک نقطه ای جلوگیری میکند زیرا به روزرسانیهای مدل فقط بین گرههای بهم پیوسته و بدون هماهنگی سرور مرکزی رد و بدل میشوند. با این وجود، توپولوژی خاص شبکه ممکن است بر عملکرد فرایند یادگیری تأثیر بگذارد. به یادگیری مبتنی بر بلاکچین و منابع موجود در آن مراجعه کنید. از ویژگیهای اصلی یادگیری فدراسیون به موارد زیر باید اشاره کرد:
یادگیری تکراری: برای اطمینان از عملکرد خوب یک مدل نهایی و مرکزی یادگیری ماشین، یادگیری فدراسیون متکی به فرایند تکراری است که در یک مجموعه اتمی از تعاملات مشتری و سرور تجزیه میشود و به عنوان دور آموزش فدراسیون شناخته میشود. هر دور از این فرایند شامل انتقال وضعیت مدل جهانی فعلی به گرههای شرکت کننده، آموزش مدلهای محلی در این گرههای محلی برای تولید مجموعه ای از به روزرسانیهای مدل بالقوه در هر گره و سپس جمعآوری و پردازش این به روزرسانیهای محلی در یک به روز رسانی جهانی و استفاده از آن در مدل جهانی.
شروع اولیه: با توجه به ورودیهای سرور، یک مدل یادگیری ماشین (به عنوان مثال، رگرسیون خطی، شبکه عصبی، تقویت کننده) انتخاب میشود تا روی گرههای محلی آموزش داده شود و مقداردهی اولیه شود. سپس، گرهها فعال میشوند و منتظر میمانند تا سرور مرکزی وظایف محاسبه را انجام دهد. انتخاب مشتری: برای شروع آموزش دادههای محلی، بخشی از گرههای محلی انتخاب میشود. گرههای انتخاب شده مدل آماری فعلی را بدست میآورند در حالی که بقیه منتظر دور بعدی فدراسیون هستند.
پیکربندی: سرور مرکزی به گرههای انتخاب شده دستور میدهد تا مدل را بر روی دادههای محلی خود به روشی از پیش تعیین شده آموزش دهند (به عنوان مثال، برای برخی از به روزرسانیهای مینی دسته ای از شیب نزولی).
گزارش دادن: هر گره انتخاب شده مدل محلی خود را برای تجمیع به سرور ارسال میکند. سرور مرکزی مدلهای دریافت شده را جمع کرده و به روزرسانیهای مدل را به گرهها ارسال میکند. همچنین از عهده خرابیهای گرههای قطع شده یا به روزرسانیهای از دست رفته مدل است. دور فدراسیون بعدی بازگشت به مرحله انتخاب مشتری است.
خاتمه: به محض احراز معیار خاتمه از پیش تعریف شده (به عنوان مثال، حداکثر تعداد تکرار حاصل میشود یا دقت مدل از آستانه بیشتر است) سرور مرکزی به روزرسانیها را جمع میکند و مدل جهانی را نهایی میکند.