بسیاری در مورد پتانسیل هوش مصنوعی (AI) برای تبدیل بسیاری از جنبه های کسب و کار و جامعه برای بهتر است. در گوشه مقابل، علمی تخیلی است روایت روز قیامت تحت پوشش آسانی.
برای اطمینان از عملکرد محصولات هوش مصنوعی به عنوان برنامه نویسان خود – و برای جلوگیری از سناریوی سبک HAL9000 یا Skynet – روایت مشترک نشان می دهد که داده های مورد استفاده به عنوان بخشی از فرآیند یادگیری ماشین (ML) باید به دقت مورد بررسی قرار گیرند ، تا شانس وراث محصول را به حداقل برساند. ویژگیهای مضر
به گفته ریچارد تامست ، محقق هوش مصنوعی در IBM Research Europe ، “سیستم های هوش مصنوعی ما فقط به اندازه داده هایی که در آنها قرار می دهیم خوب هستند. با توجه به اینکه هوش مصنوعی در همه ابعاد زندگی ما مورد توجه قرار می گیرد ، اطمینان از اینکه ما در حال تهیه و آموزش این سیستم ها با داده هایی عادلانه ، قابل تفسیر و بی طرف هستیم بسیار مهم است. ”

مدیر عامل IBM: “هر شرکتی به یک شرکت هوش مصنوعی تبدیل می شود”
همه گیر اتحادیه اروپا را مجبور به تجدید نظر در استراتژی جدید هوش مصنوعی می کند
پاپ در حال ورود به گروه باند AI است

بدون کنترل ، تأثیر تعصب کشف نشده نیز می تواند به سرعت گسترش یابد زیرا اشتها برای محصولات AI افزایش می یابد ، به خصوص اگر وسیله حسابرسی مجموعه داده های اساسی متناقض و کنترل نشده باقی بماند.
با این حال، در حالی که مسائل که می تواند از گرایش هوش مصنوعی در تصمیم گیری بوجود می آیند – مانند استخدام پیشداوری حبس ناعادلانه – روشن است، مشکل خود را به دور از سیاه و سفید.
همه از آن باید هم پاشید و آورده را در نظر – پرسش و پاسخ پیرامون تعصب AI مانند حق حریم خصوصی داده ها، جنسیت و نژاد سیاست، سنت تاریخی و طبیعت انسان غیر ممکن است برای از گیر مسائل پیچیده و گسترده است.
در همین حال ، سؤالاتی درباره اینکه چه کسی وظیفه تعیین تعصب را بر عهده دارد و چه کسی وظیفه اجرای آن استاندارد را دارد (و پس از آن پلیس راه اندازی) ، برای گل آلود تر کردن آب ها است.
مقیاس و پیچیدگی مسئله بیش از توجیه تردیدها در مورد زنده بودن تلاش برای پاکسازی هوش مصنوعی از جزییات ، هرچند شریف باشد ، توجیه می کند.
تعصب الگوریتمی چیست؟
تعصب الگوریتمی را می توان به عنوان نمونه ای توصیف کرد که در آن تصمیمات تبعیض آمیز توسط یک مدل هوش مصنوعی که مایل به بی طرفی است ، گرفته شود. علل آن دروغ در درجه اول در تعصبات (با این حال جزئی) یافت شده در درون مجموعه داده های گسترده استفاده می شود به مدلهای یادگیری ماشینی قطار (ML)، که عمل به عنوان سوخت برای تصمیم گیری.
تعصبات اساسی در تصمیم گیری هوش مصنوعی می تواند عواقب در زندگی واقعی هم برای مشاغل و هم برای افراد به همراه داشته باشد ، از چیزهای بی اهمیت تا بسیار مهم.
به عنوان مثال ، یک مدل مسئول پیش بینی تقاضا برای یک محصول خاص ، اما داده های مربوط به تنها یک جمعیتی را تغذیه می کند ، می تواند تصمیماتی را اتخاذ کند که منجر به از دست رفتن مبالغ گسترده در درآمد بالقوه شود.
به همان اندازه ، از منظر انسانی ، برنامه ای که وظیفه دارد ارزیابی درخواست های مشروط به کار یا ایجاد سهمیه برای برنامه های بیمه عمر را ارزیابی کند ، می تواند در صورت تعصب ارثی علیه یک گروه اقلیت خاص ، آسیب قابل توجهی ایجاد کند.

(اعتبار تصویر: Shutterstock / carlos castilla) به گفته جک ورنون ، تحلیلگر ارشد تحقیق در IDC ، کشف تعصب در یک محصول هوش مصنوعی ، در برخی شرایط ، می تواند آن را برای هدف کاملاً نامناسب کند.
“وقتی الگوریتم ها سوگیری هایی ایجاد می کنند که مشکل ساز یا غیر عمدی باشند ، مشکل ایجاد می شود. دو منبع معمول تعصبات ناخواسته وجود دارد: داده ها و الگوریتم “. او از طریق ایمیل به TechRadar Pro گفت.
“مسائل مربوط به داده ها به اندازه کافی توجیه شده است ، به این دلیل که اگر ویژگی های مجموعه داده ای که برای آموزش الگوریتم استفاده می شود روند زمینه ای مشکل ساز را دارند ، احتمال زیاد وجود دارد که الگوریتم این روندها را انتخاب و تقویت کند.”
الگوریتم همچنین می تواند تعصبات ناخواسته خود را به اشتباه ایجاد کند … مشهور است که الگوریتم برای شناسایی خرس های قطبی و خرس های قهوه ای باید پس از کشف الگوریتم بر اساس طبقه بندی آن بر اساس طبقه بندی بر اساس اینکه آیا برفی در زمین وجود دارد یا نه ، کنار گذاشته شود. بر روی ویژگی های خرس در تمام تمرکز نیست. ”
به عنوان مثال ورنون را نشان می دهد راه عجیب و غریب که در آن یک الگوریتم می تواند از هدف مورد نظر خود را در نوسان است – و آن این نیمه استقلال است که می تواند یک تهدید مطرح، اگر یک مشکل تشخیص داده نشده می رود است.
بزرگترین مسئله در مورد تعصب الگوریتمی تمایل آن به ترکیب معایب در حال حاضر وارد شده است. به عبارت دیگر ، تعصب در یک محصول هوش مصنوعی بعید به نظر می رسد که یک بانکدار یقه سفید با داشتن درخواست کارت اعتباری خود به اشتباه نادرست رد شود ، اما ممکن است در یک عضو جمعیتی دیگر نقش ایفا کند (که از لحاظ تاریخی بخش بیشتری از برنامه ها را رد کرده است). درد و رنج همان هتک ابرو.
سوال نمایندگی منصفانه
اجماع میان متخصصانی که برای این قطعه مشورت کردیم این است که ، برای ایجاد کمترین پیش داوری AI ممکن است ، تیمی که از متنوع ترین گروه افراد تشکیل شده است ، باید با استفاده از داده هایی از عمیق ترین و متنوع ترین ، در ایجاد آن شرکت کند. منابع
با این حال ، بخش فناوری دارای یک مسئله دیرینه و مستند با تنوع در جنس و نژاد است.
در انگلستان ، تنها 22٪ از مدیران شرکتهای فناوری ، زنان هستند – سهمی که طی دو دهه گذشته عملاً بدون تغییر مانده است. در همین حال ، تنها 19٪ از کل نیروی کار فناوری ، زن هستند ، به دور از 49٪ که دقیقاً نسبت زنان به مردان کارگر در انگلستان را نشان می دهد.
در عین حال ، در میان فناوری های بزرگ ، نمایندگی گروه های اقلیت نیز پیشرفت کمی داشته است. گوگل و مایکروسافت در زمینه توسعه هوش مصنوعی از نظر صنعت بسیار مهمی هستند ، اما درصد کارمندان سیاه و آمریکای لاتین در هر دو شرکت ناچیز است.
براساس آمارهای سال 2019 ، تنها 3٪ از 100،000+ کارمند گوگل آمریکای لاتین و 2٪ سیاه پوست بودند – هر دو رقم نسبت به سال 2014 تنها 1٪ رشد داشته است. سابقه مایکروسافت تنها با حاشیه بهتری است ، با 5٪ از نیروی کار خود را از لاتین تشکیل می دهد. آمریکایی ها و 3 درصد کارمندان سیاه پوست در سال 2018.
پذیرش از هوش مصنوعی در شرکت، از سوی دیگر، در طول یک دوره مشابه سر به فلک کشید با توجه به شرکت تحلیلگر گارتنر، افزایش 270٪ بین 2015-2019. بنابراین می توان گفت دلهره محصولات AI بسیار بیشتر از تعهد به تضمین کیفیت آنها است.

(اعتبار تصویر: Shutterstock / elenabsl)
پاتریک اسمیت ، CTO در شرکت ذخیره سازی داده ها PureStorage ، معتقد است که مشاغل نه تنها به کسانی که می توانند تحت تأثیر تعصب قرار گیرند ، مدیون مسئله تنوع هستند ، بلکه باید به خودشان نیز توجه کنند.
سازمان های سراسر هیئت در معرض خطر هستند که اگر فقط در تصویر خود استخدام شوند ، خود را از ابتکار خلاص نمی کنند. ایجاد یک استراتژی متنوع استخدام ، و بنابراین یک پایگاه متنوع کارمندان ، برای هوش مصنوعی ضروری است ، زیرا به سازمان ها امکان می دهد شانس بیشتری برای شناسایی نقاط کور داشته باشند که شما قادر نخواهید دید که آیا شما یک نیروی کار همگن دارید ، ”
“بنابراین ، تنوع و سلامتی یک سازمان به طور خاص به تنوع درون هوش مصنوعی مربوط می شود ، زیرا به آنها امکان می دهد تعصبات ناخودآگاه را که در غیر این صورت ممکن است نادیده گرفته شود ، مقابله کنند.”
علاوه بر این ، سؤالات مربوط به دقیق اندازه گیری تنوع ، لایه دیگری از پیچیدگی را اضافه می کند. آیا یک مجموعه داده متنوع باید به هر نژاد و جنسیت بازنمایی کند ، یا نمایندگی اقلیت ها در یک مجموعه داده جهانی باید بازتاب نسبت هر یک از یافته های جمعیت جهان باشد؟
به عبارت دیگر ، آیا مجموعه داده هایی که از مدل های جهانی استفاده می کنند باید دارای اطلاعاتی باشند که مربوط به تعداد مساوی آفریقایی ها ، آسیایی ها ، آمریکایی ها و اروپایی ها است یا باید تعداد بیشتری از آسیایی ها را نسبت به سایر گروه ها نشان دهد؟
همین سؤال را می توان با جنسیت مطرح کرد ، زیرا جهان شامل 105 مرد به ازای هر 100 زن هنگام تولد است.
چالش پیش روی کسانی که هدفشان توسعه AI است که به اندازه کافی بی طرف (یا شاید نسبتاً بی طرف) باشد ، چالشی است که جوامع در سراسر جهان با آن روبرو هستند. چگونه می توان اطمینان داد كه همه احزاب نه تنها نماینده ، بلكه شنیده می شوند – و هنگامی كه سابقه تاریخی تمام مدت تلاش می كند تا تلاش را تضعیف كند؟
آیا داده ها ذاتاً تعصب دارند؟
اهمیت تغذیه داده های مناسب در سیستم های ML کاملاً واضح است و ارتباط مستقیمی با توانایی AI برای تولید بینش مفید دارد. اما شناسایی درست در مقابل داده های اشتباه (یا خوب در مقابل بد) بسیار ساده است.
همانطور که تومست توضیح می دهد ، “داده ها می توانند به طرق مختلف مغرضانه باشند: فرایند جمع آوری داده ها می تواند منجر به داده های نمونه گیری نشده و غیر نمایشی شود. برچسب به داده ها از طریق تصمیمات گذشته و یا لبللرس انسان ممکن است با گرایش به اعمال می شود. یا تعصبات ساختاری ذاتی که نمی خواهیم تبلیغ کنیم ممکن است در داده ها موجود باشد. ”
وی افزود: “بسیاری از سیستم های هوش مصنوعی همچنان با استفاده از داده های بد آموزش خواهند گرفت و این مسئله یک مشکل مداوم است که می تواند منجر به این شود که گروه ها در معرض نقص سیستم قرار گیرند.”
منطقی خواهد بود فرض کنیم که حذف انواع داده هایی که احتمالاً ممکن است تعصبات را آگاه سازند – از جمله سن ، قومیت یا گرایش جنسی – ممکن است به گامی برای حل مسئله پیش برود. با این حال ، اطلاعات کمکی یا مجاور که در یک مجموعه داده نگهداری می شوند نیز می تواند به خروجی کمتری کمک کند.
به عنوان مثال کد پستی یک شخص ممکن است در مورد خصوصیات یا هویت آنها چیزهای زیادی را نشان دهد. این داده های کمکی می تواند توسط محصول AI به عنوان وکیلی برای داده های اولیه مورد استفاده قرار گیرد و در نتیجه همان سطح تبعیض ایجاد شود.
مسائل پیچیده علاوه بر این، در این است که تعصب در یک محصول AI به طور فعال به مطلوب است وجود دارد. به عنوان مثال ، اگر استفاده از هوش مصنوعی برای استخدام نقشی که نیاز به سطح مشخصی از قدرت جسمی – مانند آتش نشان – دارد ، می توان به نفع متقاضیان مرد تبعیض قائل شد ، زیرا زیست شناسی دیکته می کند که میانگین مذکر از نظر جسمی قوی تر از میانگین زن است. در این مثال ، مجموعه داده هایی که از محصول AI تغذیه می کنند ، بدون تردید مغرضانه است ، اما به شکلی مناسب.
این سطح از عمق و پیچیدگی باعث می شود حسابرسی برای تعصب ، شناسایی منبع آن و درجه بندی داده ها یک کار مهم را به چالش بکشد.

(اعتبار تصویر: Shutterstock / Laurent T) محققان برای برطرف کردن مسئله داده های بد ، ایده های بی تعصب ، شبیه به سبک به اشکالات موجود در فروشندگان امنیت سایبری را برای از بین بردن نقص در خدمات خود ، اسباب بازی کرده اند. با این حال ، این مدل با فرض اینکه فرد مجهز به تشخیص تعصب در برابر سایر عوامل جمعیتی غیر از خود است ، عمل می کند – سوالی که شایسته بحث کامل است.
سازش دیگری را می توان در مفهوم AI توضیح داد (XAI) ، که نشان می دهد که توسعه دهندگان الگوریتم های هوش مصنوعی باید بتوانند فرآیندی را که منجر به هر تصمیم گیری شده توسط مدل هوش مصنوعی آنها می شود ، با جزئیات دقیق توضیح دهند.
Vernon توضیح داد: “هوش مصنوعی قابل توضیح به سرعت به یکی از مهمترین مباحث در فضای هوش مصنوعی تبدیل می شود ، و بخشی از تمرکز آن بر ممیزی داده ها قبل از استفاده از آن برای آموزش مدل ها است.”
“توانایی ابزارهای قابل توضیح برای هوش مصنوعی می تواند به ما كمك كند كه چگونه الگوریتم ها به یك تصمیم خاص رسیده اند ، كه باید به ما نشان دهد كه آیا تعصب الگوریتم دنبال شده مشكل است یا خیر.”
به نظر می رسد شفافیت می تواند اولین قدم در مسیر رسیدگی به مسئله تعصب ناخواسته باشد. اگر نتوانیم جلوی تبعیض آمیز را بگیریم ، امیدواریم حداقل بتوانیم تبعیض را تشخیص دهیم.
آیا ما خیلی دیر شده ایم؟
تداوم تعصب الگوریتمی موجود دیگر مشکل دیگری است که می تواند در مورد آن فکر کند. چگونه بسیاری از ابزارهای در حال گردش در اثر تعصب قابل توجه اما کشف نشده سوخت می شوند؟ و چه تعداد از این برنامه ها می تواند به عنوان پایه و اساس پروژه های آینده مورد استفاده قرار گیرد؟
هنگام تهیه یک نرم افزار ، معمول است که توسعه دهندگان از یک کتابخانه کد موجود استفاده کنند ، که باعث صرفه جویی در وقت می شود و به آنها امکان می دهد تا عملکردهای از پیش آماده شده را در برنامه های خود وارد کنند.
مشکل ، در زمینه تعصب هوش مصنوعی ، این است که این عمل می تواند به گسترش نفوذ تعصب ، پنهان کردن در گوشه ها و لاله های کتابخانه ها و مجموعه های گسترده کد کمک کند.
فرضی، اگر یک قطعه به خصوص محبوب از کد منبع باز به تعصب نمایشگاه در برابر خاص جمعیتی بودند، این امکان وجود دارد که تمایل تبعیض آمیز همان می تواند خود را در قلب بسیاری از محصولات دیگر، نادانسته به توسعه دهندگان خود را جاسازی کنید.

(اعتبار تصویر: Shutterstock / آندری سوسلوف) به گفته کاسپر بازیلیسکی ، مدیر تیم هوش مصنوعی در شرکت توسعه نرم افزار Neoteric ، بسته به ماهیت و دامنه آنها ، استفاده مجدد از کد در پروژه های مختلف توسعه نسبتاً متداول است.
“اگر دو پروژه هوش مصنوعی مشابه هستند ، آنها اغلب در مراحل مشترک حداقل ، در پردازش داده ها قبل و بعد از پردازش مشترک هستند. سپس پیوند کد از یک پروژه به پروژه دیگر برای سرعت بخشیدن به روند توسعه بسیار معمول است. ”
“به اشتراک گذاری بسیار مغرضانه مجموعه داده های منبع باز برای آموزش ML را ممکن می سازد که تعصب راه خود را به محصولات آینده می یابد. این وظیفه برای تیم های توسعه هوش مصنوعی است که از وقوع آن جلوگیری کنند. ”
بعلاوه ، Bazyliński خاطرنشان می کند: غیرممکن است که توسعه دهندگان از دید محدود به انواع داده های وارد شده به محصولاتشان ، محدودیت داشته باشند.
وی خاطرنشان كرد: “در بعضی از پروژه ها ، توسعه دهندگان از كامل بودن مجموعه داده ، كاملاً مشاهده می كنند ، اما معمولاً معمولاً بعضی از داده ها ناشناس هستند یا برخی از ویژگیهای ذخیره شده در داده ها به دلیل محرمانه بودن توصیف نمی شوند.”
این به این معنا نیست که کتابخانه های کد ذاتاً بد هستند – بدون شک پیشرفت آنها برای توسعه دهندگان جهان است – اما پتانسیل آنها برای کمک به تحقق تعصب واضح است.
“در مقابل این زمینه ، این اشتباه جدی خواهد بود که … نتیجه بگیریم که فناوری خود بی طرف است” ، در مطلبی در وبلاگ شرکت هوش مصنوعی DeepMind در Google نوشت.
“حتی اگر تعصب از طرف توسعه دهندگان نرم افزار سرچشمه نگیرد ، با ایجاد محصولات جدید دوباره بسته بندی و تقویت می شود و منجر به ایجاد فرصت های جدید برای آسیب می شود.”
تعصب ممکن است برای ماندن در اینجا باشد
، تعصب یک اصطلاح ذاتا لود شده است، حمل با آن یک میزبان از چمدان منفی است. اما ممکن است که تعصب اساسی در عملکرد ما از آنچه فکر می کنیم فکر کنیم – غیرقابل تفکیک از شخصیت انسان و بنابراین هر چیزی که تولید می کنیم اساسی است.
به گفته الكساندر لیندر ، تحلیلگر VP در گارتنر ، پیگیری هوش مصنوعی بی طرف با استفاده از این پارادوكس بسیار انسانی گمراه و غیر عملی است.
“تعصب هرگز نمی تواند کاملاً از بین رود. حتی تلاش جانبدارانه حذف تعصب از خود را خلق – آن اسطوره حتی سعی کنید برای رسیدن به جهانی عاری از تعصب است، “او گفت TechRadar نرم افزار.
در همین حال ، تومست یادداشت کمی خوش بینانه تر می زند ، اما حرکاتی را نیز نسبت به بیهودگی آرزوی رسیدن به بی طرفی کامل نشان می دهد.
وی گفت: “از آنجا که انواع مختلفی از تعصب وجود دارد و امکان به حداقل رساندن همه انواع به طور همزمان غیرممکن است ، این همیشه یک معامله خواهد بود. بهترین روش باید مورد بررسی قرار گیرد و به صورت موردی ، با در نظر گرفتن دقیق مضرات احتمالی استفاده از الگوریتم برای تصمیم گیری ، “او توضیح داد.
“یادگیری ماشینی ، طبیعتاً نوعی تبعیض آماری است: ما مدلهای یادگیری ماشینی را آموزش می دهیم تا تصمیم بگیرند (بر اساس داده های گذشته ، برای تمایز بین گزینه ها).”
بنابراین ، تلاش برای خلاص شدن از تصمیم گیری از تعصب ، با همان مکانیسم که انسان برای تصمیم گیری در وهله اول استفاده می کند ، مغایر است. بدون داشتن معیاری از تعصب، AI را نمی توان به کار را برای ما بسیج می شوند.
با توجه به پیامدهای آشکار ، تعصب هوش مصنوعی مشکلی نیست که باید به آن توجه شود ، کاملا مسخره است. اما ، از سوی دیگر ، مفهوم یک مجموعه داده کاملاً متعادل ، قادر به ریختن همه تبعیض در تصمیم گیری الگوریتمی ، چیزی فراتر از یک ایده آل انتزاعی نیست.
سرانجام زندگی خیلی کثیف است. هوش مصنوعی کاملاً مساوات غیرقابل تحقق است ، زیرا مسئله ای نیست که تلاش زیادی برای حل آن انجام شود ، بلکه به این دلیل است که خود تعریف مسئله در جریان است.
تصور تعصب در راستای تغییر در اولویت های اجتماعی ، فردی و فرهنگی متفاوت است – و توسعه سیستم های هوش مصنوعی در خلاء با حذف این پیچیدگی ها غیرممکن است.
شناختن تصمیم گیری مغرضانه و کاهش اثرات مخرب آن بسیار مهم است ، اما از بین بردن تعصب غیر طبیعی است – و غیرممکن است.
در اینجا لیست ما از بهترین خدمات محاسبات ابری سال 2020 آورده شده است


منبع Tech Radar