هوش مصنوعی باید تصمیمات خودرا توضیح بدهد!
نیو وبلاگ: بعضی از شركت های فعال در حوزه هوش مصنوعی برای پیش گیری از تعصب و غرض ورزی احتمالی این فناوری، باور دارند كه هوش مصنوعی باید برای تصمیمات خود، دلیلهای قانع كننده و به دور از تبعیض داشته باشد.
به گزارش نیو وبلاگ به نقل از ایسنا و به نقل از فوربس، هوش مصنوعی هم مانند انسان، با غرض ورزی كار می كند. در حقیقت می توان گفت هر شخص یا چیزی كه قابلیت تصمیم گیری داشته باشد، با غرض ورزی عمل می كند و هنگام انتخاب، به بعضی از عوامل بیش از عوامل دیگر بها می دهد. با این وجود، همان گونه هوش مصنوعی در سال های اخیر به خاطر غرض ورزی و تبعیض مقابل گروه های خاصی همچون زنان و رنگین پوستان، بدنام شده، شركت ها نیز به همان اندازه در غلبه بر تبعیض الگوریتم های آن، مهارت بیشتر به دست می آورند.
روشی كه آنها غالبا برای این كار استفاده می نمایند، با عنوان "هوش مصنوعی با قابلیت توضیح"(Explainable AI) شناخته می شود. در گذشته و حتی حالا، عملكرد بیشتر اطلاعات مربوط به هوش مصنوعی، مانند یك جعبه سیاه ارائه می شده است. افرادی كه كار رمزگذاری را انجام می دهند، شبكه های عصبی الگوریتم ها را طراحی كردند اما هنگامی كه این اطلاعات انتشار یافت، شبكه های عصبی بدون نظارت افرادی كه آنها را برنامه ریزی كرده بودند، به كار خود ادامه دادند. در هر حال، شركت ها در ابتدا متوجه این مشكل نشدند و هنگامی به آن پی بردند كه بسیار دیر شده بود.
این مشكل هوش مصنوعی، موضوعی چالش برانگیز است. بیشتر استارتاپ ها و شركت ها هم اكنون، روش ها و پلت فرم هایی را بر طبق هوش مصنوعی قابل توضیح ارائه می دهند. یكی از جالب ترین این روش ها، روش ارائه شده توسط استارتاپ موسوم به "فیدلر لبز"(Fiddler Labs) است. این استارتاپ كه در سانفرانسیسكو و توسط مهندسان پیشین فیس بوك و سامسونگ تاسیس شده است، نوعی موتور جستجوی مبتنی بر هوش مصنوعی را به شركت ها پیشنهاد می دهد كه همه عوامل در رابطه با تصمیم گیری را نمایش می دهد. "آمیت پاكا"(Amit Paka)، از بنیان گذاران این استارتاپ اظهار داشت: نرم افزار ما سبب می شود كه رفتار مدلهای هوش مصنوعی، واضح و قابل درك باشند.
پاكا بعنوان نمونه توضیح داد كه چگونه هوش مصنوعی قابل توضیح می تواند به مدل مبتنی بر هوش مصنوعی مورد استفاده بانك ها كمك نماید.
وی ادامه داد: ورودی های بسیاری وجود دارند كه هنگام تصمیم گیری برای یك كاربرد خاص، مورد توجه قرار می گیرند. در یك فضای قدیمی بدون وجود فیدلر، گفتن چگونگی و دلیل تاثیر هر ورودی بر نتیجه، دشوار و یا حدودا نا ممكن است اما شاید بانك ها با وجود هوش مصنوعی قابل توضیح بتوانند تاثیر هر ورودی را نسبت به خروجی مشخص كنند.
پاكا افزود: این توانایی توضیح دادن، به ابداع كنندگان هوش مصنوعی، كاربران اقتصادی، تنظیم كنندگان و كاربران نهایی امكان می دهد تا درك بهتری در مورد دلیل پیش بینی های خاص داشته باشند. این موضوع، در مورد تعصب و اخلاقیات مربوط به هوش مصنوعی، از اهمیت بالایی برخوردارست برای اینكه به شركت ها امكان می دهد تا تبعیض های احتمالی مقابل گروه های خاص را شناسایی كنند. بعلاوه، چنین قابلیتی می تواند به شركت ها در اصلاح مدلهای هوش مصنوعی قبل از به كار بردن آنها در مقیاس بزرگ كمك نماید.
پاكا افزود: تعصب نژادی هوش مصنوعی در الگوریتم های مربوط به سلامت و تبعیض آن در تصمیم گیری و قضاوت، فقط چند نمونه از مشكلات مربوط به غرض ورزی هوش مصنوعی هستند. الگوریتم های پیچیده هوش مصنوعی هم اكنون مانند جعبه سیاه عمل می كنند و حتی با داشتن عملكرد خوب، فعالیت داخلی آنها ناشناخته و غیرقابل توضیح دادن است.
یكی از دلیلهای اهمیت هوش مصنوعی قابل توضیح در غلبه بر غرض ورزی الگوریتم ها، این است كه شاید جنسیت، نژاد و مقوله های دیگری از این دست، صریحا رمزگذاری نشده اند. در چنین مواردی، هوش مصنوعی قابل توضیح لازم است تا به شركت ها در برداشتن تبعیض های عمیق داده هایی كه این الگوریتم های پیچیده را تغذیه می كنند، كمك نماید.
باتوجه به این دلیلهای، ابداع مدلهای هوش مصنوعی كه قابلیت بیشتری برای توضیح داشته باشند، كلید اصلاح عواملی است كه به بروز غرض ورزی می انجامند. این مدلها همین طور می توانند رعایت مقررات توسط سیستم های هوش مصنوعی را نیز تضمین كنند. تنظیمات بیشتر می تواند به اطمینان بیشتر از عملكرد عادلانه هوش مصنوعی و قابل توضیح بودن آن كمك كنند.
نكته مثبت این است كه شركت های دیگری به غیر از فیدلر لبز نیز چاره ها و پلت فرم های مبتنی بر هوش مصنوعی را ارائه می دهند كه قابل مقایسه و توضیح دادن هستند. برای مثال، یك استارتاپ فعال در حوزه هوش مصنوعی موسوم به "كیندی"(Kyndi) كه دراین زمینه فعالیت می كند، در ماه ژوئیه سال جاری موفق شد بودجه ای به مبلغ ۲۰ میلیون دلار به دست بیاورد و هم اكنون نیز از پلت فرم های خود جهت بررسی دلیل هر تصمیم گیری استفاده می نماید.
شركت دیگری كه در حوزه هوش مصنوعی قابل توضیح فعالیت دارد، شركت آمریكایی "زد ادونسد كامپیوتینگ"(Z Advanced Computing) است. این شركت در ماه آگوست اعلام نمود كه بودجه ای را از نیروی هوایی آمریكا دریافت كرده است تا فناوری تشخیص چهره سه بعدی را برمبنای هوش مصنوعی قابل توضیح عرضه نماید.
شركت "ویانی سیستمز"(Vianai Systems) كه در ماه سپتامبر و توسط مدیرعامل پیشین شركت "اینفوسیس"(Infosys) بنیان گذاشته شد نیز هوش مصنوعی قابل توضیح دادن را برای گروهی از سازمان ها و در طیف وسیعی از نقش ها به كار می گیرد.
شركت های دیگری نیز در حوزه هوش مصنوعی قابل توضیح فعالیت دارند كه نرم افزارها و راهكارهای آنها، بهبود قابل توجهی را در نحوه عملكرد هوش مصنوعی به وجود می آورد.
با وجود همه فوایدی كه چنین برنامه هایی به همراه دارند، نكات منفی استفاده از آنها غیرقابل انكار هستند. این امكان وجود دارد كه هوش مصنوعی نهایتا اثر متضادی بر شركت هایی مانند فیدلر لبز و كیندی داشته باشد.
از آنجائیكه دولت ها یا شركت ها می توانند عوامل دقیق یك الگوریتم را برای تصمیم گیری به كار ببرند، ممكنست بعضی از سازمان های غیراخلاقی، از موتورهای هوش مصنوعی قابل توضیح استفاده كنند تا الگوریتم های آنها، غرض ورزی بیشتری داشته باشد.
این مطلب را می پسندید؟
(1)
(0)
تازه ترین مطالب مرتبط
نظرات بینندگان در مورد این مطلب