• رای نوشت/ الگوریتم‌های هوش مصنوعی در قطبی‌سازی فضای سیاسی چه نقشی دارند؟

      رای نوشت/ الگوریتم‌های هوش مصنوعی در قطبی‌سازی فضای سیاسی چه نقشی دارند؟

      رای نوشت/ الگوریتم‌های هوش مصنوعی در قطبی‌سازی فضای سیاسی چه نقشی دارند؟

      قطبی‌سازی فضای سیاسی، کارکردهای متفاوتی دارد، اما یکی از کارکردهای مهم آن، که در طول انتخابات نیز بسیار تاثیرگذار است، قرار دادن مردم و نخبگان سیاسی در دو گروه مجزا و حذف گروه‌های میانه-رو یا مستقلی است که خارج از دوقطب تشکیل شده‌اند. بطور کلی قطبی‌سازی دیدگاه‌ها و نگرش‌های غالبا افراطی است که نهادها و رهبران سیاسی به آن دامن می‌زنند که عمدتا در نظام‌های فکری مانند دو جریان فکری اصلاح طلب و اصولگرا در ایران و یا احزاب سیاسی مانند دموکرات و جمهوری خواه در ایالات متحده رخ می‌دهد.

      یکی از دغدغه‌های اساسی مسئولین و محققین سیاسی، ایجاد شرایط پایدار برای حاکمیت صحیح و کنترل فضای دوقطبی است.

      مطالعه اخیر مرکز تحقیقات پیو[1] نشان داد که کاربران سیاه پوست شبکه‌های اجتماعی، احتمالاً بیشتر اخبار مربوط به بحث نژاد را دنبال می‌کنند. گزارش مولر[2] نشان می‌دهد، روسیه، طرفداران برنی سندرز[3] را علیه هیلاری کلینتون[4] هدف قرار داده بود. بلومبرگ نیوز[5] در اکتبر 2016 به نقل از برد پارسکاله[6]، مدیر دیجیتال دولت ترامپ در سال 2016 و رئیس ستاد انتخاباتی وی در سال 2020،[7] بیان کرد که با پست‌های فیس‌بوک و دیگر پست‌های رسانه‌ای، طرفداران احتمالی کلینتون را هدف قرار داده تا آن‌ها را از جریان انتخابات حذف کند. پارسکاله که از اوایل ماه اوت، 9.2 میلیون دلار بیش از چهار نامزد اصلی دموکرات، برای تبلیغات فیس‌بوک ترامپ در انتخابات 2020 هزینه کرده بود، اشاره کرد که این رقم در سال 2016 برای 50 هزار تبلیغ بصورت روزانه، در سطوح مختلفی برای جامعه هدف و رأی‌دهندگان بوده است.

      در حالی که سوء‌استفاده عوامل سیاسی از روزنامه‌نگاری زرد[8]، چیز جدیدی نیست، بهره‌وری این روزنامه‌نگاران از تکنیک‌های دستکاری اطلاعات در فضای مبتنی بر فناوری، تغییر بسیار مهمی است. الگوریتم‌ها اکنون قدرتمندترین متصدیان اطلاعات هستند که اقدامات چندمنظوره برای چنین دستکاری‌هایی را امکان‌پذیر می‌کنند. البته این الگوریتم‌ها تبعیض‌آمیز هستند وشاید پذیرفتن این امر به نظر سخت برسد. در دانشگاه کالج لندن[9]، با تجزیه و تحلیل سیگنال‌های باینری[10]، رفتار شبکههای اجتماعی، مدل‌سازی شده‌است. نتیجه تجزیه و تحلیل‌ها روی عوامل انجام شده، حاکی از آن بودکه مردم نظراتشان را در موضوعاتی به اشتراک می‌گذارند که در مورد آن‌ها اختلاف نظر دارند. بیشتر "عوامل" در این مدل، سیگنال‌هایی را مشخص می‌کنند که براساس سیگنال‌های دریافتی از محیط منتشر شده‌اند. (به همان شکلی که کاربران اخبار و اطلاعات را در فضای مجازی به اشتراک می‌گذارند). اما تعداد کمی از این عوامل بعنوان"استدلال‌‌گرهای انگیزه‌مند[11]"شناخته می‌شوند.

      در واقع اصطلاح "استدلال باانگیزه"، شامل تعصب شناختی است که دربرگیرنده‌ی جنبه‌های فردی، از جمله احساسات، کلیشه‌ها، ترس‌ها، باورها و استدلال ناخودآگاه است. این جنبه‌های شناختی بر تصمیم‌گیری تأثیر می‌گذارد و باعث می‌شود فرد باور کند منطقی رفتار می‌کند، بدون اینکه واقعاً چنین باشد. همه جنبه‌ها بر نحوه درک واقعیت تأثیر می‌گذارند. ممکن است تصور کنید که "استدلال‌‌گرهای انگیزه‌مند"، مبارزان سیاسی، لابی‌گر یا حتی از کاربران متعصب فیس‌بوک هستند. اما در واقع، "استدلال‌‌گرهای انگیزه‌مند"، الگوریتم‌هایی هستند که اخبار آنلاین را تصحیح می‌کنند. این الگوریتم‌ها، صرف‌نظر از آنچه می‌شنوند یا دریافت می‌کنند، فقط نظرات از پیش تعیین شده خود را منتشر می‌کنند. نتایج نشان داد که در هر صورت، "استدلال‌‌گرهای انگیزه‌مند"، بر گفتگوهای آنلاین مسلط می‌شوند و همه عوامل دیگر را به سمت عقاید ثابتی سوق می‌دهند که در نتیجه شبکه‌های اجتماعی دو قطبی می‌شوند. "اتاق‌های پژواک[12]"، نتیجه اجتناب‌ناپذیر شبکه‌های اجتماعی است که متشکل از همین "استدلال‌‌گرهای انگیزه‌مند"است.

      در اقتصاد رسانه‌ای آنلاین، هوش مصنوعی طی الگوریتم‌هایی در صدد آن است تا از طریق وادار کردن کاربر به کلیک بر روی تبلیغات و تکرار هرچه بیشتر این نوع تعاملات انسانی، به عوامل سودآور دسترسی داشته باشد. اما تصمیمات در هوش مصنوعی، نه تنها مبنای اقتصادی ندارد، بلکه از نظر آماری نیز ساختار هوشی ساده‌ای دارد.
      به عنوان مثال، گزارش گاردین در سال 2016 در مورد جستجوهای گوگل برای واژه‌ی "موهای غیرحرفه‌ای[13]"، نتایج عمده‌ای از تصاویر زنان سیاهپوست را به همراه داشت، در حالی که با جستجوی واژه‌ی "حرفه‌ای‌ها" تصاویر زنان سفیدپوست را ارائه می‌داد. آیا این یک سوگیری عمیق اجتماعی نسبت به نژادپرستی و تبعیض جنسیتی را نشان نمی‌دهد؟ برای این‌که به چنین نتیجه‌ای برسیم، باید این را پذیرفته باشیم که کاربران از اصطلاح "موهای غیرحرفه‌ای"، برای دسترسی به تصاویر زنان سیاه سیاه‌پوست استفاده می‌کنند. این مسأله صرف نظر از تعصبات اجتماعی (که قطعاً وجود دارد)، تردیدآمیز به نظر می‌رسد. دکتر رابرت اسمیت[14]، متخصص در زمینه هوش مصنوعی بیان کرد که هوش مصنوعی به لحاظ آماری میتواند در مورد تشخیص مدل موهای زنان سیاه‌پوست از مدل موهای مردان سیاه‌پوست و زنان سفیدپوست و... قابل اعتماد باشد. این صرفاً یک جنبه از نگاه الگوریتمی در هوش مصنوعی است که موارد را با استفاده از ویژگی‌های کلی رنگ، شکل و اندازه تحلیل میکند. درست مانند نژادپرستی در دنیای واقعی، برای الگوریتم‌ها، توسل به ویژگی‌های ساده، راحت‌تر از برداشت هرگونه درک واقعی از مردم است. هوش مصنوعی این عمل را رمزگذاری می‌کند.

      در مثالی دیگر، گاردین عنوان کرد که با جستجوی کلمه "مرد"، تقریباً تمام تصاویر از مردان سفیدپوست، البته در سنین مختلف، بدست می‌آید. جستجوی کلمه "زن" نیز اکثریت قریب به اتفاق زنان جوان و سفیدپوست را نشان می‌دهد. با توجه به اینکه اکثریت جمعیت جهان غیر سفیدپوست هستند، مشخص است که چگونه تعصبات سفیدپوست غرب محور، از نژاد و باورهای جنسیتی گرفته تا استانداردهای فرهنگی زیبایی و ارزش، بر نحوه کار وب و داستان‌های آن چیره شده‌است. در واقع بخش تصاویر گوگل در پاسخ به آنچه بیشتر مردم می‌خواهند ببینند، تصور شده است. می‌توان گفت تعصب داشتن یعنی پیش داوری درباره ویژگی‌های ساده و سپس برداشت کلی از این مفروضات. این فرآیند دقیقاً همان کاری است که الگوریتم‌ها از نظر فنی انجام می‌دهند. در واقع الگوریتم‌ها با استفاده از این روش، "داده‌های بزرگ[15]" نامفهوم را از تعاملات آنلاین کاربران، به محتوایی قابل درک تجزیه می‌کنند. با توجه به ویژگی‌های ساده‌ای که الگوریتم‌ها از آن استفاده می‌کنند (جنسیت، نژاد، اقناع سیاسی، مذهب، سن و غیره) و تعمیم‌های آماری که از آن‌ها بدست می‌آید، پیامد زندگی واقعی، تفکیک اطلاعاتی است که با تفکیک نژادی، جنسیتی و اجتماعی قبلی، بی شباهت نیست. از طرفی، گاردین عنوان می‌کند که محتوایی که موتورها و الگوریتم‌ها قادر به دانستن و یافتن آن هستند، تحت تأثیر محتوایی است که کاربر برای کار کردن به آن‌ها می‌دهد، به این معنی که ممکن است تعصبات کاربران را منعکس کند.

      گروه‌هایی که برای دستیابی به قدرت اقتصادی و سیاسی تلاش می‌کنند، از تکنیک‌هایی مانند بازاریابی هدفمند و کنترل هرج و مرج دیجیتالی برای دسته‌بندی گروه‌ها، جهت منافع خود، استفاده خواهند کرد که نتیجه این امر صرفاً در فضای انتخاباتی ظهور نمی‌یابد، بلکه به گسترش اختلافات عمیق در دنیای واقعی نیز منجر خواهد شد. مطالعات دانشگاه کالج لندن نشان می‌دهد که کلید مقابله با گرایش طبیعی که شبکه‌های اجتماعی به واسطه الگوریتم خود، برای تبعیض دارند، ترویج اختلاط ایده‌ها از طریق تبادل اطلاعاتی بیشتر بین افراد است. این ممکن است عملاً به معنای تنظیم رسانه‌های آنلاین باشد و برای مهندسان هوش مصنوعی الزامی است که الگوریتم‌هایی را پیرامون اصول جدید طراحی کنند تا بهینه‌سازی را با ترویج ایده‌های متنوع، متعادل سازند. این تغییر علمی، چشم‌انداز اطمینان‌بخشی از ترکیب سالم‌تر اطلاعات، به ویژه در مورد مسائل قطبی را نوید می‌دهد.

      تهیه کنندگان: حوریه یزدانی (پژوهشگر موسسه فرهنگی- پژوهشی منهاج)، بهاره احمدی‌نژاد (کارشناسی ارشد مدیریت دانشگاه آزاد قزوین)
      تهیه‌ شده در گروه مطالعات اخلاقی پژوهشگاه فضای مجازی

      برگرفته از:






      [1]Pew Research Center
      [2]Mueller
      [3]Bernie Sanders
      [4]Hillary Clinton
      [5] Bloomberg News
      [6] Brad Parscale
      [7] President Trump
      [8] خبرنگاری زرد به خبرها و خبرنگارانی اطلاق می‌شود که پایشان را از اصول حرفه‌ای و اخلاقی روزنامه‌نگاری بیرون گذاشته اند و به موضوعاتی مانند رسوایی و تهمت‌های جنسی، دلالی تهمت و شبهه وارد کردن به دیگران یا دست‌آویز کردن موضوعات احساسی برای سوءاستفاده از آنها، نسبت داده می شود . اصطلاح خبرنگاری یا روزنامه‌نگاری زرد به‌طور گسترده روشی غیراخلاقی است و برای فریب مورد استفاده قرار می‌گیرد.
      [10] 1s and 0s
      [11] Motivated Reasoners
      [12] در رسانه‌های خبری، لفظ اتاق پژواک تمثیلی از اتاق پژواک صوتی است، که در آن صدا در فضایی بسته منعکس می‌شود. اتاق پژواک توصیفی کنایی از وضعیتی است که در آن اطلاعات، ایده‌ها، یا باورها با ارتباطات و تکرار درون یک سامانه تعریف شده تقویت می‌شوند. درون یک اتاق پژواک تمثیلی، منابع رسمی غالباً زیر سؤال نمی‌روند و دیدگاه‌های متفاوت یا رقیب سانسور، ممنوع، یا کمتر از حد پوشش داده می‌شوند.
      [13] unprofessional hair
      [14] Robert Smith
      [15] Big Data
      نظر کاربران
      نام:
      پست الکترونیک:
      شرح نظر:
      کد امنیتی:
       
آدرس: تهران، میدان آرژانتین، خیابان بیهقی، نبش خیابان شانزدهم غربی، پلاک 20
کد پستی: 1515674311
تلفن: 86121084
پست الکترونیک: csri@majazi.ir