تاریخ انتشار: ۲۰:۴۱ - ۰۸ بهمن ۱۳۹۷
وکس نوشت: الکساندریا اوکازیو کورتز جوان‌ترین عضو کنگره ایالات متحده اخیرا در یک سخنرانی گفت که هوش مصنوعی می‌تواند نژاد پرست باشد و به نظر می‌رسد حق با وی است.
 رویداد۲۴ این روز‌ها برنامه‌های عکس و فیلم گوشی‌های هوشمند کارکردی خارق العاده دارند. برای مثال کافیست گوشی خود را در دست بگیرید و تصویر یک سگ را جستجو کنید. هوش مصنوعی گوشی شما به خوبی می‌داند سگ چه شمایلی دارد و به سرعت همه تصاویر مرتبط را بارگذاری می‌کند.

این شگفتی مدرن نتیجه نوعی هوش مصنوعی است. اما هوش مصنوعی یک وجه تاریک هم دارد، به خصوص اگر به درستی مورد استفاده قرار نگیرد. استفاده نادرست از هوش مصنوعی می‌تواند زمینه ساز تعصبات و تبعیض نژادی شود. این به این علت نیست که کامپیوتر‌ها نژادپرست هستند. این به این دلیل است که آن‌ها با نگاه کردن به جهان ما انسان‌ها رفتار‌های غلط را می‌آموزند.

اخیرا، اوکازیو کورتز این موضوع را در یک بحث در رویداد روز مارتین لوتر کینگ در نیویورک مطرح کرد. او گفت: "الگوریتم‌ها هنوز هم توسط انسان ساخته می‌شوند و این الگوریتم‌ها هنوز هم به مفاهیم اساسی انسانی وابسته هستند. آن‌ها فقط مفروضات خودکار هستند و اگر شما تعصب را کنار نگذارید، پس شما فقط این تعصب را تبدیل به سیستمی خودکار می‌کنید. "

به نظر می‌رسد کورتز درست می‌گویدف حتی اگر جمهوری خواهان به سخنان وی دهن کجی کنند. درواقع اگر دقت نکنیم، هوش مصنوعی مسیر تعصب ما انسان هنا را در جهان ادامه خواهد داد.

تقریبا تمام تکنولوژی‌های مصرفی جدید به نحوی از یادگیری رفتار‌های انسان‌ها استفاده می‌کنند. نگاهی به ترجمه‌های گوگل نشان می‌دهد این موضوع تا چه حد مهم است. درواقع هیچ کس به این نرم افزار دستور نداده تا یاد بگیرد که چگونه یونانی را به فرانسه و سپس به زبان انگلیسی ترجمه کند. این هوش مصنوعی این کار را از طریق بررسی تعداد بی شماری از متن‌ها و به شکل خودکار آموخته است.

یادگیری ماشینی برنامه‌ای است که از طریق میلیارد‌ها نقطه داده برای حل مشکلات استفاده می‌شود مانند «آیا می‌توانید حیوان را در عکس شناسایی کنید»، اما همیشه مشخص نیست که این مشکل چگونه حل شده است و این به طور فزاینده‌ای روشن می‌کند که این برنامه‌ها می‌توانند بدون توجه مستقیم به ما، تعصبات و کلیشه هایمان را توسعه دهند.

در سال ۲۰۱۶ پروپاپلیکا یک تحقیق در مورد یک برنامه یادگیری ماشینی انجام داد که دادگاه‌ها برای پیش بینی برخی جرائم مورد استفاده قرار می‌دادند. پژوهشگران دریافتند که این نرم افزار افراد سیاه پوست را در معرض خطر ارتکاب جرم بیشتری نسبت به سفید پوستان قرار داده است.

این در حالی است که برنامه مذکور بخش بزرگی از داده‌های خود را به واسطه تعاملات انسانی و مکاشفه احتمالاتی سازماندهی کرده بود که انسان‌ها اعلام کرده بودند و این یعنی از لحاظ تاریخی، سیستم عدالت کیفری به سیاهپوستان آمریکایی ظلم می‌کند و اساس آن ناعادلانه است.

این داستان نشان می‌دهد یک افسانه عمیق در مورد یادگیری ماشینی صحت دارد. افسانه‌ای که معتقد است این سیستم‌ها نمی‌توانند تصمیمات بی طرفانه‌ای اتخاذ کنند. اما چه اتفاقی افتاد که برنامه‌های یادگیری ماشینی و هوش مصنوعی، تعصبات ما را در مقیاس وسیع حفظ کرد؟

موارد دیگر مبهم‌تر هستند. در چین، محققان تکنولوژی با استفاده از هوش مصنوعی و سیستم تشخیص چهره پیش بینی می‌کنند که یک نفر جنایتکار است. به نظر می‌رسد دقت این سیستم ۸۹.۵ درصد باشد. اما بسیاری از کارشناسان از یافته‌های اینچنینی نگران هستند. سوال این است که کدام ویژگی‌های چهره توسط این برنامه تجزیه و تحلیل شده بود؟ آیا ویژگی‌های فیزیکی گروه‌های قومی خاصی بود که در نظام عدالت تبعیض آمیز اثر داشت؟

الکساندر تولوروف، روانشناس و استاد دانشگاه پرینستون در مصاحبه‌ای در سال ۲۰۱۷ گفت که در حال بررسی راهی برای تشخیص گرایشات جنسی از طریق بررسی وضعیت چهره افراد است. این موضوع از یک سو حساس و از سوی دیگر مخاطره آمیز است. بار‌ها دیده شده که هوش مصنوعی اشتباهاتی فاحش دارد. نگاهی به ترجمه‌های گاه پرت و پلا و بی ربط مترجم گوگل نشان می‌دهد هوش مصنوعی گاهی حتی حرف آدم‌ها را متوجه نمی‌شود چه برسد به وضعیت جنسی، مذهبی، فرهنگی و ...

در سال ۲۰۱۷، کالیزکان و همکارانش مقاله‌ای را در زمینه هوش مصنوعی منتشر کردند که سعی کردند در آن به هوش مصنوعی بیاموزند که کلمات مرتبط مثل "ظرف" و "غذا" را خودکار ترکیب کند. ان‌ها ۸۴۰ میلیارد کلمه را وارد سیستم یادگیری هوش مصنوعی کردند و نتایجی جالب هم گرفتند. در این پژوهش مشخص شد واژه "مهندس" اغلب با "آقا" همراه می‌شود نه "خانم". واژه "سفید پوست" نیز بیشتر با واژه "دلپذیر" همراه می‌شد تا "سیاهپوست".

مانند یک کودک، هوش مصنوعی ابتدا کلمات را یاد می‌گیرد سپس با مرور صحبت‌های بزرگ تر‌ها تصمیم می‌گیرد کدام کلمه را کجا قرار دهد. بر همین اساس است که اغلب نام‌های افریقایی با صفت‌های ناخوشاید و توهین آمیز ترکیب شده اند.

بر همین اساس است که برخی کارشناسان حوزه فناوری معتقدند افرادی که در حوزه یادگیری ماشینی و نرم افزار استخدام می‌شوند باید مرتب در مورد کلیشه‌های جنسی و نژادی مطالعه کنند تا در دام این نوع مسائل نیفتند. این موضوع در آینده چالشی مهم خواهد بود. در حال حاضر، هوش مصنوعی راه خود را در سیستم مراقبت‌های بهداشتی پیدا کرده است و به پزشکان کمک می‌کند تا درمان مناسب را برای بیماران پیدا کنند.

با این حال، اطلاعات سلامتی نیز با تعصب‌های تاریخی پر شده است. برای مثال زنان بیشتر از مردان از جراحی می‌ترسند و در نتیجه هوش مصنوعی هم جراحی زنان را به تاخیر می‌اندازد. اما آیا چنین کلیشه‌هایی به لحاظ سلامتی خطرناک نیستند؟

با همه این‌ها نمی‌توان گفت: این نوع برنامه‌ها کاملا بی فایده هستند. برنامه‌های یادگیری ماشینی در حال روبرو شدن با الگو‌های تاریخی هستند که منعکس کننده نژاد یا جنسیت هستند و بنابراین تشخیص واقعیت و تعصب برایشان کمی دشوار است.

چه فردی به برنامه‌های یادگیری ماشینی یاد داده پرستاران زن هستند و مهندسان مرد؟ طبیعتا ما این کار را کرده ایم و اگر قرار است چیزی عوض شود ابتدا باید از خودمان شروع کنیم. انسان‌ها هنگام استفاده از این برنامه‌ها باید دائما بپرسند «چرا این نتایج را می‌گیرم؟» و خروجی این برنامه‌ها را برای تعصب بررسی کنند. آن‌ها باید فکر کنند که آیا اطلاعاتی که آن‌ها در حال دریافتش هستند متعصبانه است یا حقیقی. این یک برنامه تحقیقی و درازمدت برای دانشمندان حوزه کامپیوتر، اخلاق، جامعه شناسان و روانشناسان است.

اما حداقل افرادی که از این برنامه‌ها استفاده می‌کنند باید از این مشکلات آگاه باشند و تصدیق نکنند که یک کامپیوتر می‌تواند نتایج منفی بیشتری نسبت به یک انسان ایجاد کند. به طور کلی، مهم است که به یاد داشته باشید: هوش مصنوعی از جهان پیرامون ما یاد می‌گیرد.
خبر های مرتبط
نظرات شما
نام:
ایمیل:
* نظر: