هوش مصنوعی و تکنولوژی

هوش مصنوعی، اخلاقیات انسان را مهم‌تر می‌کند[۱]؛ نظر یک جامعه‌شناس تکنولوژی؛ زینپ توفکچی[۲]

ترجمه و گزارش سخنرانی از: ارمغان مهمدی

تخمین زمان مطالعه: ۱۲ دقیقه


ما از هوش مصنوعی[۳] برای تصمیم‌گیری‌های ذهنی استفاده می‌کنیم. ولی رشد و پیچیدگی مسیر پیچیده‌ی هوش مصنوعی، درکِ آن را سخت و حتی کنترلش را دشوارتر می‌کند. زینپ توفکچی، جامعه‌شناس تکنولوژی، برنامه‌نویس، استاد، نویسنده و پژوهشگر اثرات اجتماعیِ فناوری، در این سخنرانی هشدارآمیز توضیح می‌دهد که چگونه ماشین‌های هوشمند نمی‌توانند به اشکال گوناگون -به شیوه‌ای که قابل انتظار نیست و یا بدان منظور آماده نشده‌اند- با الگوهای خطای انسانی سازگار شوند.

او می‌گوید: «ما نمی‌توانیم مسولیت‌هایمان را به ماشین‌ها تحویل دهیم». «حتی باید با شدت بیشتری به ارزش‌های انسانی و اخلاق انسانی پایبند باشیم». در این یادداشت کوشش شده است تا بخش‌هایی از سخنرانی خانم توفکچی در ارتباط با اهمیت اخلاق در فناوری و هوش مصنوعی[۴] گزارش شود.


وقتی نوجوان بودم، نخستین شغلم را به عنوان یک برنامه‌نویس رایانه در نخستین سال کالجم آغاز کردم. پس از آغاز به کار در شرکت، درحالی‌که کسی در اتاق نبود، یکی از مدیران نزد من آمد و با صدای آرام به من گفت: «اگر من دروغ بگم، آیا او می‌تواند متوجه بشود؟».

ازش پرسیدم: «چه کسی میتونه بگه تو دروغ میگی؟ و چرا ما در حال پچ پچ کردن هستیم؟». مدیر، به کامپیوترِ موجود در اتاق اشاره کرد و گفت که منظورش از «او» رایانه است. چون در آن زمان نوجوان بودم و متوجه مسئله غیراخلاقی مدیر با منشی‌اش شده بودم، با صدای بلند گفتم: «بله، رایانه می‌تواند تشخیص بدهد که تو دروغ میگویی!».

من یک برنامه‌نویس رایانه شده بودم زیرا یکی از آن بچه‌های به شدت علاقه‌مند به ریاضی و علم بودم. ولی در مسیر زندگی‌ام در مورد سلاح‌های هسته‌ای چیزهایی یاد گرفتم و واقعاً در مورد اخلاق در علم نگران شدم.

به هر روی، به دلیل شرایط خانوادگی‌ام، نیاز داشتم تا در اسرع وقت کارم را آغاز کنم. خُب با خودم فکر کردم بگذار تا یک رشته تکنیکی را بردارم که شغل راحتی باشه و من با هیچ پرسش سخت اخلاقی روبرو نشوم؟ پس کامپیوترها را گزینش کردم.

سیستم‌های محاسباتی کنونی

امروزه، سیستم‌های محاسباتی‌ای وجود دارند که می‌توانند حالت احساسی و حتی دروغ رو از طریق تحلیل صورت انسان بفهمند. تبلیغ‌کننده‌ها و حتی دولت‌ها خیلی به این مقولات علاقه دارند.

دانشمندان رایانه نیز، در حال ساخت پلتفرم‌هایی هستند که آنچه یک میلیارد آدم در هر روز می‌بینند را کنترل می‌کند. آنها حتی خودروهایی را ساختند که می‌توانند تصمیم بگیرند که چه کسی را زیر بگیرند. حتی در حال ساخت ماشین‌ها و جنگ افزاری هستند که ممکن است آدم‌ها رو در جنگ بکشد. همه‌ی این‌ها سقوط اخلاق است.

هوش مصنوعی، اخلاقیات انسان را مهم‌تر می‌کند؛ نظر یک جامعه‌شناس تکنولوژی؛ زینپ توفکچیهوش مصنوعی

هوش مصنوعی اینجا بکار می‌آید. ما در حال استفاده از محاسباتی هستیم که نه تنها همه‌ی تصمیماتمان را می‌گیرد، بلکه انواع جدیدی از تصمیم‌ها را نیز اتخاذ می‌کند. ما سؤالاتی را می‌پرسیم که هیچ جواب معینی ندارند؛ ذهنی، با پایان باز و ارزشی هستند.

ما پرسش‌هایی ازین قبیل می‌پرسیم: «شرکت چه کسی را باید استخدام کند؟» «کدام به‌روزرسانی از کدام دوست باید نشان داده شود؟» «کدام متهم بیشتر شبیه خلاف‌کارهاست؟» «کدام بخش از اخبار یا فیلم باید به مردم توصیه شود؟».

در واقع، مدت‌هاست که در حال استفاده از کامپیوترها هستیم ولی این بار فرق می‌کند. این یک چرخش تاریخی است؛ زیرا ما نمی‌توانیم محاسبات را برای تصمیم‌های ذهنی مانند روش محاسباتی برای پرواز هواپیما، ساخت پل‌ها و رفتن به ماه، نگه داریم. اصلاً آیا هواپیماها امن‌تر هستند؟ آیا این پل فرومی‌ریزد؟.

در واقع، ما منصفانه و بر اساس معیارهای عادلانه و روشن توافق کردیم و قوانین طبیعت را برای راهنمایی داریم. در واقع، ما چیزی شبیه نگه‌دارنده‌ها و معیارها برای تصمیم‌گیری در کارهای انسانی آشفته نداریم. برای کارهای پیچیده‌تر، نرم‌افزارهای ما قدرتمندتر می‌شوند، ولی همچنین می‌تواند با شفافیت کمتری و با پیچیدگی بیشتری همراه باشد.

الگوریتم‌های پیچیده

در دهه‌ی گذشته، الگوریتم‌های پیچیده گام‌های بلندی برداشته‌اند. آن‌ها می‌توانند صورت انسان را باز شناسایی کنند. دست‌خط را تشخیص بدهند. کلاهبرداری در کارت اعتباری را کشف کنند و اسپم‌ها را مسدود کنند. همچنین می‌توانند زبان‌ها را ترجمه کنند. تومورها را در تصاویر پزشکی کشف کنند. همچنین می‌توانند انسان‌ها را در بازی شطرنج ببرند.

بیشتر این پیشرفت‌ها از روشی به نام «یادگیری ماشین» آمده است. یادگیری ماشین نسبت به برنامه‌نویسی سنتی متفاوت هست؛ از این لحاظ که شما به رایانه دستورالعمل‌های جزئی، دقیق و پیچیده می‌دهید. این امر بیشتر شبیه این است که شما یک سیستم گرفته‌اید و اطلاعات زیادی به آن می‌خورانید دربرگیرنده اطلاعات بدون ساختار، مانند اطلاعاتی که ما در زندگی دیجیتال خود تولید می‌کنیم. و سیستم به‌وسیله‌ی گردش در بین اطلاعات یاد می‌گیرد. همچنین بسیار مهم است که این سیستم‌ها تحت یک منطق تک‌سیگنالی عمل نمی‌کنند. «این امر شاید بیشتر شبیه آنچه است که شما به دنبال آن هستید».

هم اکنون، این امر، پیشرفت است: روشی که واقعاً قدرتمند است. رئیس سیستم‌های هوش مصنوعی گوگل آن را بدین شکل نام‌گذاری کرد: «اثر غیرمنطقی اطلاعات». قسمت بدترش این است که: ما واقعاً نمی‌فهمیم سیستم چه چیزی را یاد گرفته است. در حقیقت قدرت آن در همین است. این امر کمتر شبیهِ دادنِ دستورکار به رایانه است، بلکه بیشتر شبیه یاد دادن به یک توله ماشین زنده[۵] است که ما واقعاً نمی‌توانیم آن را بفهمیم یا کنترلش کنیم.

خب این مشکل ماست. وقتی مشکل این است که این سیستم هوش مصنوعی، چیزها را اشتباه یاد می‌گیرد. همچنین وقتی‌که چیزها را درست یاد می‌گیرد، باز هم مشکلی وجود دارد؛ زیرا وقتی یک مشکل ذهنی است، ما حتی نمی‌دانیم چی به چیه. به عبارت دیگر، ما نمی‌دانیم این سیستم در حال فکر کردن به چه چیزی است.

یک الگوریتم استخدام را فرض کنید- سیستمی که مردم را با استفاده از سیستم‌های یادگیری ماشین‌محور استخدام می‌کند. مانند سیستمی که بر اساس اطلاعات کارمندان قبلی آموزش دیده است و دستور دارد که افرادی را که بهره‌وری بالایی در شرکت دارند پیدا کند و استخدام کند. در نگاه اول، به نظر خوب میاد.

به عنوان مثال، من یک بار در کنفرانسی حضور داشتم که مدیران منابع انسانی، مدیران اجرایی و افراد رده‌بالا از طریق این سیستم استخدامی دور هم جمع شده بودند،. آنها خیلی هیجان‌زده بودند. فکر می‌کردند که این امر، استخدام را هدفمندتر و کمتر مغروضانه خواهد کرد و برخلاف غرض‌ورزی مدیران منابع انسانی، به خانم‌ها و اقلیت‌ها شانس بهتری می‌دهد.

خُب نادیده گرفتن شدن جنسیت و نژاد در استخدام من قطعاً چیز خوبی برایم بود. ولی با این سیستم‌ها بغرنج‌تر و پیچیده‌تر شده و دلیلش اینجاست: اخیراً، سیستم‌های محاسبه‌گر می‌توانند به همه چیزهای شما از طریق خرده اطلاعات دیجیتالی شما پی ببرند، حتی اگر شما آن چیزها را فاش نکرده باشید. آنها به گرایش‌های جنسی‌تان، ویژگی‌های شخصی‌تان، دانسته‌های سیاسی‌تان پی ببرند. آنها قدرت پیش‌بینی با صحت بالایی را دارند. به یاد داشته باشید، برای چیزهایی که شما حتی آنها را فاش نکرده‌اید.

بنابراین در این کنفرانس منابع مدیران انسانی، من به یک مدیر سطح بالا در یک شرکت بزرگ نزدیک شدم و به او گفتم: «آیا سیستم تو در حال حذف مردم با احتمال بالای افسردگی در آینده است؟ آنها الان افسرده نیستند، فقط شاید در آینده به احتمال زیاد دچار افسردگی شوند. یا اگر زنانی که احتمال دارد در یکی دو سال آینده باردار شوند ولی الان حامله نیستد کنار گذارده شوند؟

تو با استفاده از نگاه کردن به تقسیم‌بندی جنسیت نمی‌توانی بگویی چه کسانی ممکنه متعادل باشند. چون این یادگیری ماشینی است و برنامه‌نویسی سنتی نیست. هیچ متغیری وجود ندارد که «بیشترین خطر افسردگی»، «بیشترین خطر حاملگی» و «مقیاس پرخاشگری مردان» نام‌گذاری شود. شما حتی نمی‌دانی سیستم چگونه گزینش می‌کند. بلکه یک جعبه سیاه است که قدرت پیش‌گویی دارد ولی شما این را نمی‌فهمید.

آن مدیر به من خیره شد و گفت: «نمی‌خواهم کلمه دیگری در این باره بشنوم». نه به این خاطر که بی‌ادب بود، بلکه کاملاً روشن بود که با نگاهش می‌گفت: نمی‌دونم، این مشکل من نیست.

آموزش سیستم‌ها

مسئله دیگر این است: این سیستم‌ها اغلب روی اطلاعات تولید شده توسط اعمالِ ما و آثار به جای مانده از انسان آموزش داده می‌شوند. پس، آنها فقط می‌توانند سوگیری‌های ما را منعکس کنند و این سیستم‌ها می‌توانند سوگیری‌های ما را گزینش کنند، تقویت کرده و آن را دوباره به ما نشان دهند. درحالی‌که به خودمان می‌گویم «ما فقط در حال محاسبات بی‌طرف و عینی هستیم».

نمونه‌ای از جستجو‌ها در گوگل

محققان در مورد گوگل دریافتند، زنان نسبت به مردان احتمال کمتری دارد که برای مشاغل با حقوق بالاتر اقدام کنند. و حین جست جو کردن برای نام‌های آفریقایی-آمریکایی، احتمال بیشتری دارد که پیشینه جرم نشان دهد، حتی وقتی‌که واقعاً جرمی وجود ندارد. چنین سوگیری‌های پنهانی و الگوریتم جعبه سیاه که گاهی محققان از آنها پرده برمی‌دارند و گاهی از آنها اطلاع نداریم، می‌تواند عواقب تغییر زندگی را در پی داشته باشد.

نمونه‌ای از سوگیری الگوریتم‌ها

در ویسکانسین، یک متهم به خاطر فرار از پلیس به شش سال زندان محکوم شد. قابل توجه است که بدانید الگوریتم‌ها به طور فزاینده‌ای در آزادی مشروط و صدور احکام در حال استفاده هستند. چگونه این نمره محاسبه می‌شود؟ این یک جعبه سیاه تجاری است. شرکت درخواست اینکه الگوریتم وی در دادگاه به چالش کشیده بشود را رد کرد.

ولی پروپابلیکا[۶]، یک مؤسسه پژوهشی غیرانتفاعی، بسیاری از الگوریتم‌ها را با اطلاعاتی عمومی که توانستند پیدا کنند، بررسی کردند. آنها دریافتند که این بروندادها، سوگیری داشتند و قدرت پیش‌بینی آنها اشتباه بود. در واقع، نه فقط شانسی (بلکه به عمد) و به طور اشتباه متهمان سیاه‌پوست را به عنوان مجرمان آینده و با دو برابر نرخ مجرمان سفید برچسب‌گذاری کرده بود.

فیسبوک

فیسبوک برای تعامل در سایت از طرق زیر بهینه می‌شود: پسند کردن‌ها[۷]، به اشترک گذاشتن‌ها[۸]، نظر دادن‌ها[۹]. در اوت ۲۰۱۴، در شهر فرگوسن ایالت میسوری معترضان بعد از کشتن یک نوجوان آفریقایی- آمریکایی به وسیله یک پلیس سفیدپوست شورش کردند.

اخبار اعتراضات در همه‌جا بود ولی الگوریتم توییترم را فیلتر نکرد ولی در فیسبوکم هیچ جا باز نبود. آیا این‌ها دوستان فیسبوکی من بودند؟ من الگوریتم فیسبوکم را غیر فعال کردم، درحالی‌که سخت بود؛ زیرا فیسبوک تلاش می‌کند تا شما را تحت کنترل الگوریتم‌ها نگه دارد. و دیدم که دوستان من در حال صحبت کردن درباره این حادثه بودند. فقط الگوریتم بود که این مسئله را به من نشان نداد. در این مورد تحقیق کردم و فهمیدم که این یک مشکل شایع بود.

حادثه فرگوسن یک رابطه پیچیده با الگوریتم نبود. دوست‌داشتنی نبود که چه کسی می‌خواهد روی “like” کلیک کنید؟ حتی ساده نیست تا کامنتی روی آن قرار دهید. بدون “like” و کامنت، شاید الگوریتم این مطلب را برای افراد کمتری نشان می‌دهد. به همین خاطر بود که در آن هفته ما نتوانستیم آن مطلب را ببینیم.

در عوض، طی آن هفته، الگوریتم فیسبوک این مسائل را برجسته کرده بود: چالش سطل آب یخ، علت ارزش خالی کردن آب یخ و اینکه کمک به مؤسسه خیریه خوب است. ولی این الگوریتم فوق‌العاده بود. چراکه ماشین این تصمیم را برای ما گرفت.

اشتباهات ماشین هوشمند

در واقع، این سیستم‌ها می‌توانند در جاهایی که شباهت به سیستم انسانی ندارد، اشتباه باشند. آیا شما واتسون، سیستم ماشین هوشمند آی بی ام[۱۰] که با انسان مسابقه داد را به خاطر دارید؟ واتسون بازیگر خوبی در مسابقه بود. ولی در آخرین بازی از واتسون پرسیده شد «بزرگ‌ترین فرودگاه که برای یک قهرمان جنگ جهانی دوم نام‌گذاری شد، همچنین دومین فرودگاه بزرگ برای مبارزه جنگ جهانی دوم کجا بود؟

«شیکاگو». دو فرد درست جواب دادند ولی واتسون پاسخ داد «تورنتو» – یک شهر آمریکایی! سیستم نیز اشتباهی کرد که حتی یک فرد کلاس دومی نیز آن اشتباه را نخواهد کرد.

ماشین هوشمند ما می‌تواند شکست بخورد در جاهایی که نمی‌تواند الگوی خطای انسان‌ها را متناسب کند، در جاهایی که ما انتظار و آمادگی برای آن نخواهیم داشت. این نکبت‌بار خواهد بود که کسی که واجد شرایط هست شغلی را نگیرد، ولی سه برابر آن بدتر اینکه به دلیل خرده رفتارها در روال عادی زندگی فرد آن شغل را نگیرد.

انسان‌ها همیشه سوگیری خواهند داشت حتی تصمیم‌گیران و دربان‌ها در دادگاه‌ها، اخبار و در جنگ….. ولی نکته موردنظر من دقیقاً اینجاست. ما نمی‌توانیم از این سؤال‌های دشوار فرار کنیم. ما نمی‌توانیم مسولیت‌هایمان را به ماشین‌ها واگذار کنیم. به‌عبارت‌دیگر، هوش مصنوعی نمی‌تواند به ما یک کارت «خارج شدن از اخلاق به صورت رایگان» بدهد.

نتیجه‌گیری

فرد بنسون[۱۱]، دانشمند اطلاعات، این مسئله را «شستشوی ریاضی[۱۲]» می‌نامد. ما خلاف آن را احتیاج داریم. نیاز داریم تا یک الگوریتم بدگمانی، بررسی دقیق و موشکافانه را گردآوری کنیم. نیاز داریم تا مطمئن باشیم که مسئولیت الگوریتمی، حسابرسی و شفافیت معنایی داریم. نیاز داریم تا بپذیریم که آورده‌های ریاضی و محاسباتی برای ارزش انباشته و پیچیده‌ی امور انسانی عینیت ندارد.

بلکه، پیچیدگی امور انسانی قطعاً به الگوریتم‌ها غلبه می‌کند. ما می‌توانیم و باید از محاسبات برای داشتن تصمیمات بهتر به خودمان کمک کنیم. ولی باید به مسئولیت اخلاقی قضاوت و استفاده از الگوریتم‌هایی در آن چارچوب، نه به عنوان وسیله‌ای برای کناره‌گیری و واگذاری مسولیت‌هایمان به یک انسان دیگر، اعتراف کنیم.

هوش مصنوعی اینجاست و بدین معناست که ما باید محکم‌تر ارزش‌ها و اخلاق انسانی را نگه‌داریم.

بردار در ماه‌های آتی پرونده‌ای با موضوع اخلاق و تکنولوژی منتشر خواهد کرد.

 

[۱] Machine intelligence makes human morals more important.

[۲] Zeynep Tufekci

[۳] Artificial intelligence (AI)

[۴]https://www.ted.com/talks/zeynep_tufekci_machine_intelligence_makes_human_morals_more_important#t-476173

[۵] a puppy-machine-creature

[۶] ProPublica- Investigative Journalism and News in the Public Interest

[۷] Like

[۸] Share

[۹] Comment

[۱۰] Watson, IBM’s machine-intelligence system

[۱۱]Fred Benenson

[۱۲] Math-washing

1+

افزودن دیدگاه

لطفا دیدگاه خود را بنویسید
لطفا نام خود را وارد کنید

4 + 2 =