انجمن انفورماتیک ایران انجمن انفورماتیک ایران انجمن انفورماتیک ایران
گزارش کامپیوتر شماره 234, ویژه مرداد و شهریور ماه 96 منتشر شد. پنجشنبه  ٠٢/٠٩/١٣٩٦ ساعت ٢١:٤٣
 

آیا باید رایانه‌ها چگونه حرف‌زدن را به کودکانمان بیاموزند؟


 

رایانه‌ها به‌طور فزاینده‌ای در زمینه‌های مختلف زندگی برای ما تصمیم‌گیری می‌کنند و حتی ممکن است کار به جایی برسد که به کودکانمان نیر حرف‌زدن بیاموزند. امّا این که ما باید چنین اجازه‌ای به آن‌ها بدهیم یا نه، موضوع بحث داغی بود که در رابطه با استفاده از الگوریتم‌ها در کنفرانس جهانی رایاسپهر در شهر لاهه هلند، بین شرکت‌کنندگان در میزگرد، درگرفت.
الگوریتم‌ها مجموعه‌ای از دستورالعمل‌ها هستند که برای انجام کاری نوشته شده‌اند. آن ها توسط شرکت‌هایی مانند گوگل و فیسبوک برای تعیین این که کدام نتایج جستجو مربوط هستند و کدام پیام‌ها در برنامۀ زمانی یک نفر نشان داده شوند، به کار برده می‌شوند. از الگوریتم‌ها برای برقراری تعاملات اجتماعی، سیاسی، شخصی و اقتصادی میلیاردها نفر استفاده می‌شود و آن‌ها به طور فزاینده‌ای برای تصمیم‌گیری به جای ما یا دربارۀ ما به کار گرفته می‌شوند.
اگر بنا بود خود انسان‌ها از دستورالعمل‌های الگوریتم‌ها پیروی کنند، می‌توانستند هرگاه که تشخیص دادند از آن سر باز زنند، امّا هنگامی که الگوریتم‌ها به‌طور کامل توسط رایانه‌ها پردازش می‌شوند، دیگر جایی برای مداخله یا قضاوت انسانی وجود ندارد و به گفتۀ شرکت‌کنندگان در میزگرد کنفرانس، این می‌تواند مشکل‌زا گردد.
به گفتۀ کاوه سلامتیان، استاد علوم کامپیوتر در دانشگاه ساووی فرانسه و یکی از شرکت‌کنندگان در این میزگرد، «هیچ الگوریتمی خنثی نیست و بر پایۀ نوعی ایدئولوژی نامشخص و ناشناخته قرار دارد.» این بدان معنی است که ما نیاز داریم که نه خود کد، بلکه مبانی فکری، فلسفی و ایدئولوژیک فرد یا افرادی را که الگوریتم‌ها را نوشته‌اند نیز مورد بررسی قرار دهیم.
به گفتۀ خانم جیلیان یورک یکی دیگر از شرکت‌کنندگان در میزگرد، نکتۀ کلیدی در پرداختن به الگوریتم‌ها، شفافیت از سوی شرکت‌هایی است که از آن‌ها استفاده می‌کنند. به گفتۀ وی، مثلاً توئیتر الگوریتم موضوعات روز را دستکاری می‌کند تا یک موضوع به‌طور مکرّر نمایش داده نشود. و به همین علّت است که مثلاً هر روز نام جاستین بیبر (خوانندۀ جوان کانادایی) را در بین موضوعات روز نمی‌بینیم، که البته از این بابت سپاسگزاریم، امّا اگر یک جنبش اجتماعی یا سیاسی عمومی، موضوع روز باشد، جلوگیری از تکرار آن، مسئله‌زاست. با وجودی که این کار با سانسور فرق دارد امّا مطمئناً سرپوش گذاشتن بر روی یک موضوع خاص است. و هر چند که ممکن است با نیّت بدخواهانه‌ای صورت نگیرد امّا می‌تواند باعث شود که نتایج مسابقات فوتبال باشگاهی، رویداد «پرطرفدارتری» از یک جنبش اجتماعی نشان داده شود.
خانم یورک در تهیۀ گزارشی در مورد آداب اخلاقی الگوریتم‌ها که توسط مرکز اینترنت و حقوق بشر (CIHR ) برای کنفرانس رایاسپهر تهیه شده بود مشارکت داشت. در این گزارش نشان داده شده است که سرعت پیشرفت و توسعۀ فناوری از یک سو و انگیزه‌های دولت‌ها و شرکت‌ها از سوی دیگر، بر بحث‌های واجب و ضروری در مورد آداب اخلاقی و مسئولیت‌پذیری این زیرساخت جدید تصمیم‌گیری، سایه‌افکنده است. بنابراین گزارش، اطمینان از همراستایی چنین الگوریتم‌هایی با استانداردهای حقوق بشر، در سال‌های آینده چالش دولت‌ها و شرکت‌ها خواهد بود.
مسائل مربوط به الگوریتم‌ها، از آنچه فکر می‌کنید، به خانه‌های ما نزدیک‌تر است. برای مثال، شرکت مَتِل عروسک باربی تازه‌ای را به نام «سلام باربی» در دست تولید دارد که قادر خواهد بود با پردازش گفتگوهای کودکانی که پیرامونش قرار دارند، با آن‌ها به مکالمه بپردازد. این پردازش توسط الگوریتمی در ابر که برای پس فرستادن پاسخ مورد استفاده قرار می‌گیرد، انجام می‌شود. این بدان معنی است که هر خانواده‌ای که چنین عروسکی داشته باشد، در واقع میکروفنی متصل به اینترنت دارد که به تمام گفتگوهای درون خانه گوش می‌کند. این‌ها گفتۀ فرانک لارو، مدیر بخش اروپایی مرکز عدالت و حقوق بشر رابرت کندی بود.
لارو افزود «آیا این از نظر اخلاقی درست است؟ من چنین فکر نمی‌کنم.» اگر اجازه دهیم چنین عروسکی درون خانه‌هایمان باشد، در واقع اجازه داده‌ایم که یک الگوریتم در فرایند تفکّر و صحبت کردن ما مداخله کند. این بدان معنی است که کودک در بنیادی‌ترین و مهم‌ترین مراحل زندگیش ممکن است نسبت به آنچه یک الگوریتم، استفادۀ مناسب از زبان و جریان عادی مکالمه تشخیص می‌دهد، شرطی شود. به گفتۀ لارو، این نه تنها نقض جدّی آداب اخلاقی است بلکه نقض جدّی حقوق بشر، نقض محرمانگی و نقض آزادی بیان نیز می‌باشد.
به گفتۀ سخنرانان کنفرانس، الگوریتم‌ها به شیوه‌های گوناگونی می‌توانند بر روی مردم تأثیر بگذارند. تصمیم‌هایی که توسط الگوریتم‌ها گرفته می‌شوند می‌توانند حتی به‌طور بالقوّه بر روی انتخابات نیز تأثیرگذار باشند، مثلاً با نشان دادن اخبار مربوط به یک کاندیدا بیشتر از کاندیدای دیگر. الگوریتم‌هایی که برای جلوگیری از محتواهای مربوط به تروریسم مورد استفاده قرار می‌گیرند می‌توانند در عین حال به‌طور غیرعامدانه اخبار مربوط به تروریسم را نیز در معرض افکار عمومی قرار ندهند.
این امر که تغییر در جدول زمانی فیسبوک تأثیر زیادی بر روی مردم دارد، آنطور که ممکن است به نظر آید، چیز عجیب و غریبی نیست. برای مثال، فیسبوک سال گذشته، آزمایش روان‌شناختی بحث‌انگیزی را بر روی 700 هزار کاربر خود انجام داد تا تعیین کند تأثیر تغییر در الگوریتم خبر رسانیش بر روی خلق و خو و روحیۀ مردم چیست. این آزمایش به گفتۀ گروه حقوق محرمانگی دیجیتال در مرکز محرمانگی اطلاعات الکترونیکی (EPIC )، «به طور هدفمند ذهن مردم را به بازی گرفته بود.»
پرسشی که مطرح می‌شود این است که برای جلوگیری از مسائل ناشی از رشد و توسعۀ سریع فناوری‌ها چه باید کرد؟ شاید شفافیت به این امر کمک کند امّا آیا شفافیت به تنهایی کافیست؟ و شفافیت تا کجا باید پیش رود؟
به گفتۀ ریچارد آلن، مدیر بخش سیاست‌گذاری فیسبوک برای اروپا، خاورمیانه و آفریقا، شرکت‌ها برای به اشتراک گذاری اطلاعات مربوط به الگوریتم‌هایشان تردید دارند. او گفت این مسئله برای خود فیسبوک هم به‌صورت یک علامت سؤال بزرگ درآمده است. «آیا فضایی وجود دارد که بتوان این نوع گفتگوها را در آن انجام داد؟ یا آن که شرایط به گونه‌ای است که هر بار ما چیزی را منتشر کنیم یا با پژوهشگران خارج از شرکت به بحث بپردازیم، آنچنان غوغایی در رسانه‌ها به پا می‌خیزد که باعث آسیب‌دیدن نشان تجاری ما می‌گردد و ما را از کرده پشیمان می‌سازد.»
با وجود این، به عقیدۀ شرکت‌کنندگان در میزگرد کنفرانس، اصول کلّی که الگوریتم‌ها بر پایۀ آن‌ها بنا شده‌اند باید روشن باشد. به گفتۀ ریچارد آلن این امر هم اکنون تا حدّی در مورد الگوریتم خبررسانی صادق است امّا می‌تواند در آینده گسترش یابد. البته انتشار جزئیات درونی یک الگوریتم، موضوع دیگری است. به گفتۀ آلن اگر بخواهد سیستمی برای نوعی تأیید هرگونه تغییری در الگوریتم‌ها به وجود آید، آشکارا با محیط پویا و پرشتابی که شرکت‌ها در آن کار می‌کنند، در تعارض خواهد بود. او تأکید داشت که شرکت‌ها باید بتوانند بدون آن که هر بار درگیر یک نوع فرایند نظارت و مجوّزگیری شوند، در بُن‌سازه‌های خود تغییر ایجاد کنند.
این موضوع، موضوعی صرفاً علمی و مربوط به محیط‌های دانشگاهی نیست. برای مثال، سناتورهای فرانسه به تازگی اصلاحیۀ سختگیرانه‌ای را برای یک لایحۀ اقتصادی تصویب کردند که به موجب آن گوگل باید در صفحۀ آغازه‌اش تبلیغات سه رقیب را قرار دهد. این لایحه از گوگل نمی‌خواهد که الگوریتم‌هایش را فاش کند امّا از جویشگرها می‌خواهد که اطلاعاتی را در مورد چگونگی رده‌بندی یا شاخص‌گذاری وبگاه‌ها در اختیار بگذارد.
یکی از گزینه‌ها می‌تواند به گونه‌ای کنترل الگوریتم‌ها باشد. به تازگی ادارۀ حفاظت از حقوق مصرف‌کننده در وزارت بازرگانی آمریکا، اداره‌ای را با نام ادارۀ بررسی و تحقیق فناوری تأسیس کرده است که وظیفه‌اش پرداختن به مسئلۀ شفافیت الگوریتم‌هاست. هنوز فرایند مجوّزگیری در دستور کار نیست امّا وزارت بازرگانی علاقه‌مند است که بداند الگوریتم‌ها چگونه کار می‌کنند، چه انگیزه‌هایی در پشت آن‌ها قرار دارد، از چه داده‌هایی استفاده می‌شود و سازماندهی و ساخت یافتگی آن‌ها چگونه است.
آن‌گونه که در گزارش مرکز اینترنت و حقوق بشر (CIHP ) آمده، در برخی زمینه‌ها مانند امور مالی که سیستم‌های خودکار و بسیار سریع داد و ستد می‌توانند به‌طور بالقوّه باعث بی‌ثباتی در بازارهای مالی شوند، کنترل و نظارت بر الگوریتم‌ها از هم اکنون مورد بحث قرار گرفته است. بحث‌های مشابهی در مورد لزوم نظارت بر الگوریتم‌های جویشگرهای اینترنتی نیز اینجا و آنجا شنیده می‌شود.
اهمیت فزایندۀ الگوریتم‌ها، مسایل اخلاقی بسیاری را مطرح ساخته که برخی از آن‌ها مستلزم اتخاذ سیاست‌های نظارتی و کنترلی است. این مسائل نیازمند توجه فوری و عمیق از سوی هر کسی که نگران شکل آیندۀ جامعۀ انسانی است، می‌باشد.

ترجمۀ ابراهیم نقیب‌زادۀ مشایخ
منبع: آی‌دی‌جی نیوز، 17 اپریل 2015