هوش مصنوعی باید تصمیمات خودرا توضیح بدهد!

خرید بک لینک: بعضی از شرکت های فعال در حوزه هوش مصنوعی برای پیش گیری از تعصب و غرض ورزی احتمالی این فناوری، باور دارند که هوش مصنوعی باید برای تصمیمات خود، دلیلهای قانع کننده و به دور از تبعیض داشته باشد.
به گزارش خرید بک لینک به نقل از ایسنا و به نقل از فوربس، هوش مصنوعی هم مانند انسان، با غرض ورزی کار می کند. در حقیقت می توان گفت هر شخص یا چیزی که قابلیت تصمیم گیری داشته باشد، با غرض ورزی عمل می کند و هنگام انتخاب، به بعضی از عوامل بیش از عوامل دیگر بها می دهد. با این وجود، همان گونه هوش مصنوعی در سال های اخیر به خاطر غرض ورزی و تبعیض مقابل گروه های خاصی همچون زنان و رنگین پوستان، بدنام شده، شرکت ها نیز به همان اندازه در غلبه بر تبعیض الگوریتم های آن، مهارت بیشتر به دست می آورند.
روشی که آنها غالبا برای این کار استفاده می نمایند، با عنوان “هوش مصنوعی با قابلیت توضیح”(Explainable AI) شناخته می شود. در گذشته و حتی حالا، عملکرد بیشتر اطلاعات مربوط به هوش مصنوعی، مانند یک جعبه سیاه ارائه می شده است. افرادی که کار رمزگذاری را انجام می دهند، شبکه های عصبی الگوریتم ها را طراحی کردند اما هنگامی که این اطلاعات انتشار یافت، شبکه های عصبی بدون نظارت افرادی که آنها را برنامه ریزی کرده بودند، به کار خود ادامه دادند. در هر حال، شرکت ها در ابتدا متوجه این مشکل نشدند و هنگامی به آن پی بردند که بسیار دیر شده بود.
این مشکل هوش مصنوعی، موضوعی چالش برانگیز است. بیشتر استارتاپ ها و شرکت ها هم اکنون، روش ها و پلت فرم هایی را بر طبق هوش مصنوعی قابل توضیح ارائه می دهند. یکی از جالب ترین این روش ها، روش ارائه شده توسط استارتاپ موسوم به “فیدلر لبز”(Fiddler Labs) است. این استارتاپ که در سانفرانسیسکو و توسط مهندسان پیشین فیس بوک و سامسونگ تاسیس شده است، نوعی موتور جستجوی مبتنی بر هوش مصنوعی را به شرکت ها پیشنهاد می دهد که همه عوامل در رابطه با تصمیم گیری را نمایش می دهد. “آمیت پاکا”(Amit Paka)، از بنیان گذاران این استارتاپ اظهار داشت: نرم افزار ما سبب می شود که رفتار مدلهای هوش مصنوعی، واضح و قابل درک باشند.
پاکا بعنوان نمونه توضیح داد که چگونه هوش مصنوعی قابل توضیح می تواند به مدل مبتنی بر هوش مصنوعی مورد استفاده بانک ها کمک نماید.
وی ادامه داد: ورودی های بسیاری وجود دارند که هنگام تصمیم گیری برای یک کاربرد خاص، مورد توجه قرار می گیرند. در یک فضای قدیمی بدون وجود فیدلر، گفتن چگونگی و دلیل تاثیر هر ورودی بر نتیجه، دشوار و یا حدودا نا ممکن است اما شاید بانک ها با وجود هوش مصنوعی قابل توضیح بتوانند تاثیر هر ورودی را نسبت به خروجی مشخص کنند.
پاکا افزود: این توانایی توضیح دادن، به ابداع کنندگان هوش مصنوعی، کاربران اقتصادی، تنظیم کنندگان و کاربران نهایی امکان می دهد تا درک بهتری در مورد دلیل پیش بینی های خاص داشته باشند. این موضوع، در مورد تعصب و اخلاقیات مربوط به هوش مصنوعی، از اهمیت بالایی برخوردارست برای اینکه به شرکت ها امکان می دهد تا تبعیض های احتمالی مقابل گروه های خاص را شناسایی کنند. بعلاوه، چنین قابلیتی می تواند به شرکت ها در اصلاح مدلهای هوش مصنوعی قبل از به کار بردن آنها در مقیاس بزرگ کمک نماید.
پاکا افزود: تعصب نژادی هوش مصنوعی در الگوریتم های مربوط به سلامت و تبعیض آن در تصمیم گیری و قضاوت، فقط چند نمونه از مشکلات مربوط به غرض ورزی هوش مصنوعی هستند. الگوریتم های پیچیده هوش مصنوعی هم اکنون مانند جعبه سیاه عمل می کنند و حتی با داشتن عملکرد خوب، فعالیت داخلی آنها ناشناخته و غیرقابل توضیح دادن است.

یکی از دلیلهای اهمیت هوش مصنوعی قابل توضیح در غلبه بر غرض ورزی الگوریتم ها، این است که شاید جنسیت، نژاد و مقوله های دیگری از این دست، صریحا رمزگذاری نشده اند. در چنین مواردی، هوش مصنوعی قابل توضیح لازم است تا به شرکت ها در برداشتن تبعیض های عمیق داده هایی که این الگوریتم های پیچیده را تغذیه می کنند، کمک نماید.
باتوجه به این دلیلهای، ابداع مدلهای هوش مصنوعی که قابلیت بیشتری برای توضیح داشته باشند، کلید اصلاح عواملی است که به بروز غرض ورزی می انجامند. این مدلها همین طور می توانند رعایت مقررات توسط سیستم های هوش مصنوعی را نیز تضمین کنند. تنظیمات بیشتر می تواند به اطمینان بیشتر از عملکرد عادلانه هوش مصنوعی و قابل توضیح بودن آن کمک کنند.
نکته مثبت این است که شرکت های دیگری به غیر از فیدلر لبز نیز چاره ها و پلت فرم های مبتنی بر هوش مصنوعی را ارائه می دهند که قابل مقایسه و توضیح دادن هستند. برای مثال، یک استارتاپ فعال در حوزه هوش مصنوعی موسوم به “کیندی”(Kyndi) که دراین زمینه فعالیت می کند، در ماه ژوئیه سال جاری موفق شد بودجه ای به مبلغ ۲۰ میلیون دلار به دست بیاورد و هم اکنون نیز از پلت فرم های خود جهت بررسی دلیل هر تصمیم گیری استفاده می نماید.
شرکت دیگری که در حوزه هوش مصنوعی قابل توضیح فعالیت دارد، شرکت آمریکایی “زد ادونسد کامپیوتینگ”(Z Advanced Computing) است. این شرکت در ماه آگوست اعلام نمود که بودجه ای را از نیروی هوایی آمریکا دریافت کرده است تا فناوری تشخیص چهره سه بعدی را برمبنای هوش مصنوعی قابل توضیح عرضه نماید.
شرکت “ویانی سیستمز”(Vianai Systems) که در ماه سپتامبر و توسط مدیرعامل پیشین شرکت “اینفوسیس”(Infosys) بنیان گذاشته شد نیز هوش مصنوعی قابل توضیح دادن را برای گروهی از سازمان ها و در طیف وسیعی از نقش ها به کار می گیرد.
شرکت های دیگری نیز در حوزه هوش مصنوعی قابل توضیح فعالیت دارند که نرم افزارها و راهکارهای آنها، بهبود قابل توجهی را در نحوه عملکرد هوش مصنوعی به وجود می آورد.
با وجود همه فوایدی که چنین برنامه هایی به همراه دارند، نکات منفی استفاده از آنها غیرقابل انکار هستند. این امکان وجود دارد که هوش مصنوعی نهایتا اثر متضادی بر شرکت هایی مانند فیدلر لبز و کیندی داشته باشد.
از آنجائیکه دولت ها یا شرکت ها می توانند عوامل دقیق یک الگوریتم را برای تصمیم گیری به کار ببرند، ممکنست بعضی از سازمان های غیراخلاقی، از موتورهای هوش مصنوعی قابل توضیح استفاده کنند تا الگوریتم های آنها، غرض ورزی بیشتری داشته باشد.

منبع:

دسته‌ها