.هوش مصنوعی پیش داوری و تعصب – و نه منطق سخت و سرد- را به مخلوقات بشری می بخشد
اگر هوش مصنوعی بر زندگی ما غالب شود، احتمالاً انسان ها را از نبرد ارتش روبات ها دور نگاه می دارد که بطور خستگی ناپذیری، منطق اسپاک* را به کار می گیرند، چراکه این ربات ها بطور فیزیکی ما را اسیر خود می کنند. در مقابل، الگوریتم های یادگیری ماشینی که پیشتر ساخت برنامه های کاربردی AI (هوش مصنوعی) را میسر کرده اند تقریباً هر کاری که روزانه با آن سروکار دارید را انجام می دهند: پیشنهاد آهنگ و فیلم بر اساس علایقی که توصیف کرده اید، شناسایی چهره دوست تان در عکسی که شباهت به افرادی دارد که به آنان پولی قرض داده اید؛ هدایت نیروی پلیس به سمت خانه همسایه تان، یا آگاه ساختن دکتر از اینکه بدن تان نیاز به رژیم دارد. و از آنجا که انسان این الگوریتم ها را خلق می کند، مستعد تعصبات و سوگیری هایی قرار دارند که می تواند به تصمیمات نادرست و یا پیامدهای نامطلوب منجر شود.
این پیش داوری ها ، نگرانی های ضروری را درباره اتکای روزافزون ما به فن آوری های هوش مصنوعی بدنبال دارد؛ چراکه هر نوع سیستم AI که توسط بشر برای حفظ "بی طرفی" کامل طراحی شده است هم زمان می تواند تفکر مغرضانه انسانی را به جای تفکر تحلیلی تقویت نماید. در حال حاضر، مقامات قانونی استفاده از الگوریتم های کامپیوتری را مورد انتقاد قرار گرفته اند که – برای مثال –متهمان سیاه پوست را با احتمال بالای ارتکاب جرم در آینده به اصطلاح برچسب می زنند، حتی اگر این برنامه به صراحت برمبنای نژاد و قومیت طراحی نشده باشد.
مساله اصلی دارای دو جنبه است: نخست، داده های مورد استفاده برای سنجش الگوریتم های یادگیری ماشینی گاهی ناکافی است؛ و دوم اینکه این الگوریتم ها از طراحی ضعیفی برخوردارند. یادگیری ماشینی فرایندی است که در آن توسعه دهندگان نرم افزار، الگوریتم های هوش مصنوعی را با استفاده از حجم عظیمی از داده های مرتبط با وظیفه موردنظر آموزش می دهند. در نهایت، این الگوریتم الگوهایی را در داده های ابتدایی ترسیم می کند که تشخیص الگوهای مشابه در داده های جدید را فراهم می سازد. اما این امر همواره مطابق با برنامه ریزی اجرا نمی شود و نتایج وحشتناکی را بدست می دهد. برای مثال، در ژوئن سال 2015، سیستم دسته بندی عکس گوگل دو آمریکایی آفریقایی تبار را به عنوان "گوریل" شناسایی کرد. این شرکت بسرعت مشکل را حل کرد، است، اما کیت کرافرود – پژوهشگر AI مایکروسافت - در سرمقاله نیویورک تایمز به این نکته اشاره کرد که اشتباه مذکور نشانگر اهمیت بیشتر"مساله افراد سفیدپوست" در هوش مصنوعی بود. بدین معنا که، داده های مورد استفاده برای ایجاد این نرم افزار بشدت به تصاویر افراد سفیدپوست متکی بود و این امر توانایی شناسایی دقیق تصاویر افراد با ویژگی های مختلف را کاهش می دهد.
سیل اخیر خبرهای ساختگی در ماژول خبرخوان کاربران فیس بوک نیز نشانگر مساله سوگیری AI است. برای مثال یکی از الگوریتم های مهم فیس بوک،الگوریتم اخبار مهم وی میباشد،این الگوریتم اخبار را بر مبنای تعامل – یعنی، تعداد کلیک یا اشتراک گذاری کاربران - اولویت بندی می کند. در اوایل ماه نوامبر، چندین رسانه خبری گزارش دادند که گروهی از نوجوانان مقدونی الگوریتم خبرخوان فیس بوک را با ترویج اخباری نادرست و پرهیاهو به سخره گرفتند که برای رای دهندگان جناح راست در طول انتخابات ایالات متحده جذابیت داشت. فیس بوک می گوید که الگوریتم از آن زمان به بعد اصلاح شده و طرح هایی را برای Snopes، Factcheck.org، ABC News و PolitiFact به منظور کمک به حذف اخبار کاملاً نادرست اعلام بکار گرفته است.
هال دائوم- استادیار علوم کامپیوتر در دانشگاه مریلند – می گوید: "این مساله چیزی شبیه موضوع تانک روسی است". این افسانه –بظاهر ساختگی اما گویا که بکرات توسط مدرسان علوم کامپیوتر بیان می شود – به روزهای ابتدایی یادگیری ماشینی در دهه هشتاد بازمی گردد. مطابق با این داستان، ارتش ایالات متحده سعی داشت تا کامپیوتری را با قابلیت تشخیص تانک های روسی و آمریکایی در تصاویر ایجاد کند. دائوم توضیح می دهد که"آنها به دقت به دسته بندی بسیار بالا دست یافتند، اما تمام تصاویر تانک های روسی تار بودند و تانک های آمریکایی از کیفیت بالایی برخوردار بودند. به جای شناسایی تانک ها، این الگوریتم تشخیص تصاویر مبهم و با کیفیت را فراگرفت.
با وجود چنین محدودیت های شناخته شده، گروهی از محققان به تازگی مطالعه ای را منتشر کردند که نشان می دهد یک الگوریتم می تواند با استفاده از ویژگی های چهره، سابقه محکومیت افراد را تشخیص دهد. زیائولین وو و زی ژانگ، محققان دانشگاه شانگهای جیائو تانگ در چین، الگوریتم یادگیری ماشینی را بروی مجموعه داده هایی متشکل از 1856 تصویر چهره – 730 چهره مجرمان محکوم و 1126 غیر مجرمان – ایجاد کردند. پس از بررسی 90 درصد تصاویر، هوش مصنوعی قادر به شناسایی صحیح محکومین در میان تصاویر ده درصد باقیمانده بود.
بنابر این پژوهش؛ الگوریتم مذکور، همبستگی میان ویژگی های خاص چهره با جرم و جنایت را برقرار می ساخت. وی می گوید که برای مثال، تناسب چهره ای خاصی بین موقعیت گوشه چشم، انحنای لب و نوک بینی جنایتکاران مشاهده میشد؛ اگر چه او اشاره می کند که وجود هر یک از این روابط لزوماً نشانگر احتمال جنایتکار بودن فرد نیست. همچنین، وو دریافت که چهره مجرمان متفاوت از یک دیگر است، در حالی که افراد غیر مجرم عموماً ویژگی های مشترکی را دارا می باشند.
در ادامه، وو این الگوریتم را با استفاده از مجموعه تصاویر متفاوتی که پیشتر نشان داده نشده بود مورد آزمایش قرار داد و متوجه شد که الگوریتم با صحت بیشتری می تواند مجرمان را از افراد غیرمجرم تشخیص دهد. محققان با آموزش و آزمون الگوریتم های خود و استفاده از چهره مردان جوان یا میانسال چینی بدون ریش و زخم بروی صورت سعی در اجتناب از بروز سوگیری داشتند.
وو با اشاره به شبه علم قدیمی ارزیابی شخصیت بر مبنای ویژگی های چهره، می گوید:"البته تمام تلاش بر این است تا نادرستی چهره شناسی را اثبات کنم. اما ما به نتایج شگفت آوری دست یافتیم". اگر چه این مطالعه بنظر اعتبار برخی ابعاد چهره شناسی را تایید می کند، اما وو اذعان دارد که استفاده از این فنآوری برای انتخاب افراد در نیروی پلیس اقدامی خطرناک خواهد بود، و می گوید هیچ طرحی برای برنامه کاربردی اجرای قانون ندارد.
سایر دانشمندان، یافته های وو و ژانگ را صرفاً تقویت کننده سوگیری های کنونی می دانند. بلیز اگورا وای آرکاس، پژوهشگر ارشد گوگل که یادگیری ماشینی را مورد مطالعه قرار می دهد می گوید که در این الگوریتم مجرمیت افراد توسط سیستم عدالت محلی تعیین می شود که بواسطه تصمیم گیری های مغرضانه (و شاید ناخودآگاه) انسانی انجام می گیرد. اگورا وای آرکاس می افزاید که مساله اصلی این مقاله آن است که این روش بر سیستم "صداقت پیشینه برای تعیین مجرمان استوار است، و نتیجه می گیرد که [یادگیری ماشینی] حاصل، از قضاوت انسانی تاثیر نمی پذیرد".
کایل ویلسون، استادیار ریاضیات در کالج واشنگتن که بینایی ماشین((computer vision را مورد مطالعه قرار داده است می گویدکه وو و همکارانش "نتیجه گرفتند که به الگوی اساسی در طبیعت دست یافته اند – اینکه ساختار صورت قادر به پیش بینی جرم و جنایت است. این نتیجه گیری واقعا بی ملاحظه و جسورانه است". وی همچنین می گوید که این الگوریتم صرفاً منعکس کننده سوگیری انسانی در نظام عدالت خاص است و در هر کشور دیگری نیز چنین عملکردی را خواهد داشت. ویلسون می افزاید: "این داده ها و ابزار را می توان برای درک بهتر سوگیری های مبتنی بر ظاهر [انسانی] بکار گرفت که در نظام عدالت کیفری وجود دارند. در مقابل، این محققان بازسازی و تکثیر چنین سوگیری های انسانی را به کامپیوتر آموخته اند".
در عین حال، سایر محققان به امکان بهبود این فنآوری با توجه به خطاهای الگوهای کامپیوتری، با هدف دور نگاهداشتن سوگیری های انسانی اشاره می کنند. سیستم هوش مصنوعی در زمان یادگیری دچار اشتباه خواهد شد - در واقع، همانگونه که یورگن اشمیت هابر، مدیر علمی انستیتو هوش مصنوعی سوئیس اشاره می کند، به همین دلیل از این الگوریتم تحت عنوان "الگوریتم یادگیری" یاد میشود. وی اشاره می کند که کامپیوترها صرفاً آنچه را که داده ها اجازه می دهند فرامی گیرند. به گفته اشمیت هابر، "شما نمی توانید تمام علل سوگیری و تعصب را از میان بردارید؛ همانطور که نمی توانید منابع سوگیری در انسان را نیز حذف کنید". او می افزاید که شناسایی دلایل این امر امکانپذیر است و در این صورت می توان از بکارگیری داده های مناسب و طراحی مطلوب عملکرد اطمینان یافت: پرسیدن طرح پرسش های درست از کامپیوتر بسیار مهم است. این گفته برنامه نویس قدیمی را به خاطر داشته باشید که: "ورودی بی فایده، خروجی بی فایده را بدست می دهد".