یاری کنید! چت بات هوش مصنوعی باورهای سیاسی من را تغییر داد!

به گزارش فروشگاه خورشید، زمانی که از چت جی پی تی (Chat GPT) یا یک بات دیگر می خواهیم یادداشت، ایمیل یا پیش نویسی ارائه کند فکر می کنیم که این دستیاران هوش مصنوعی در حال اجرا سفارش ما هستند. تعداد زیادی از تحقیقات نشان می دهند که چت بات ها می توانند تفکرمان را تغییر دهند بدون آن که خود متوجه شویم.

یاری کنید! چت بات هوش مصنوعی باورهای سیاسی من را تغییر داد!

به گزارش فروشگاه خورشید به نقل از وال استریت ژورنال، یکی از تازه ترین مطالعات در این زمینه که به وسیله پژوهشگران در سراسر دنیا اجرا شده نشان داده زمانی که از افراد خواسته می گردد از هوش مصنوعی برای یاری به نوشتن مقاله استفاده کنند هوش مصنوعی قادر است آنان را وادار سازد تا مقاله ای را له یا علیه یک دیدگاه خاص بنویسند و این موضوع به مقدار قضاوت و پیش داوری الگوریتم آن چت بات بستگی دارد.

مور نعمان استاد بخش علوم اطلاعات در دانشگاه کرنل می گوید: شاید حتی ندانید که تحت تاثیر قرار گرفته اید. او این پدیده را قانع کردن پنهان می نامد.

نتیجه این مطالعه منظره نگران کننده ای را پیش روی مان قرار می دهد: همان طور که هوش مصنوعی بهره وری مان را تقویت می نماید ممکن است نظرات مان را نیز به وسیله روش های ظریف و پیش بینی نشده ای تغییر دهد. این تاثیر ممکن است بیش تر به نحوه تاثیرگذاری انسان ها بر یکدیگر به وسیله همکاری و هنجار های اجتماعی شباهت داشته باشد تا به نوع تاثیر رسانه های جمعی و رسانه های اجتماعی که ما با آن آشنا هستیم.

پژوهشگرانی که این پدیده را کشف نموده اند باور دارند که برترین دفاع در برابر این شکل تازه از تاثیرگذاری روانشناختی که در واقع تنها راه شناخته شده در حال حاضر محسوب می گردد مطلع سازی افراد بیش تری نسبت به این موضوع است. در دراز مدت سایر اشکال دفاعی مانند تنظیم کننده هایی که شفافیت را در خصوص نحوه عملکرد الگوریتم های هوش مصنوعی و تعصبات انسانی تقلید کنند احتمالا مفید خواهند بود.

تمام این موارد می تواند به آینده ای منجر گردد که در آن افراد انتخاب می کنند که از چه هوش مصنوعی ای در محل کار و خانه و در خصوص تحصیل بچه ها شان استفاده نموده و براساس آن ارزش های انسانی در پاسخ هایی که هوش مصنوعی می دهد بیان گردد.

با بسط این موضوع در شرکت ها و سازمان ها در آینده ممکن است هوش های مصنوعی ای ارائه شوند که از ابتدا برای کار های مختلف ساخته شده اند. ممکن است شخصی در فروش از یک دستیار هوش مصنوعی استفاده کند که برای قانع کردن بیش تر تنظیم شده و نام آن را Sales GPT بگذارد. ممکن است فردی در خدمات مشتریان از یک چت بات آموزش دیده برای مودب بودن استفاده کند که نام آن Support GPT است.

چگونه هوش مصنوعی می تواند نظر ما را تغییر دهد؟

نتیجه مطالعه ای اجرا شده در سال 2021 میلادی نشان داد که پاسخ های اتوماتیک مبتنی بر هوش مصنوعی که جی میل گوگل به نام پاسخ هوشمند پیشنهاد می نماید و به سوی مثبت بودن تمایل دارند. افراد را به طور کلی تحت تاثیر قرار می دهند تا ارتباط مثبت تری برقرار کنند.

مطالعه دوم نشان داد که پاسخ های هوشمند که میلیارد ها بار در روز استفاده می شوند می توانند بر افرادی که چنین پاسخ هایی را دریافت می کنند تاثیر بگذارند تا احساس کنند فرستنده خواستار رابطه ای گرم تر و با همکاری بیش تر است.

گوگل و مایکروسافت که با Open AI شریک هستند همگی مشتاق بودند تا کار خود را در زمینه هوش مصنوعی مسئولیت پذیر برجسته کنند که شامل آنالیز مضرات احتمالی هوش مصنوعی و رسیدگی به آن موارد می گردد. سارا برد یکی از رهبران تیم هوش مصنوعی مایکروسافت اخیرا به وال استریت ژورنال گفت که آزمایش عمومی و پاسخ سریع به هر مسئله ای که در هوش مصنوعی آن ایجاد می گردد یک استراتژی کلیدی برای شرکت است.

تیم Open AI نیز اشاره نموده که آن شرکت متعهد به رسیدگی قوی به موضوع سوگیری احتمالی هوش مصنوعی و شفافیت در خصوص اهداف است. Open AI هم چنین بخشی از دستورالعمل های خود را برای نحوه رسیدگی به موضوعات سیاسی و فرهنگی سیستم های خود منتشر نموده است. دستورالعمل این مورد را شامل می گردد الگوریتم ها در هنگام فراوری متن نباید به سوی یکی از طرفین در خصوص یک موضوع وابستگی یا تعلق خاطر داشته باشند و هم چنین نباید هر دو طرف منازعه را خوب یا بد ارزیابی کنند و آنان را مورد قضاوت قرار دهند.

Jigsaw واحدی در گوگل است که در حال مطالعه بر روی این موضوع است که تعامل با هوش مصنوعی چگونه بر افراد تاثیر می گذارد.

دکتر نعمان یکی از پژوهشگرانی که این موضوع را کشف کرد می گوید ظرافت ابزار های مبتنی بر هوش مصنوعی در حوزه تاثیرگذاری جالب توجه است. در پژوهش او موضوعی که افراد برای تغییر نظرشان در خصوص آن سوق داده شدند این بود که آیا رسانه های اجتماعی برای جامعه خوب هستند یا نه.

دکتر نعمان و همکاران اش این موضوع را تا حدودی بدان خاطر انتخاب کردند که مردم در خصوص آن باور های عمیقی ندارند. در نتیجه، تغییر دادن نظرات شان در این باره سخت نیست. هوش مصنوعی ای که برای طرفداری از رسانه های اجتماعی تعصب داشت تمایل داشت افراد مورد آزمایش قرار گرفته را برای نوشتن مقاله ای که مطابق با آن سوگیری باشد هدایت کرد و عکس آن زمانی رخ داد که هوش مصنوعی در ابتدا برای مخالفت با رسانه های اجتماعی طراحی شده بود.

استفاده های بالقوه منفی از این ویژگی هوش مصنوعی مولد فراوان هستند: حکومت های مستبد می توانند رسانه های اجتماعی و ابزار های بهره وری را ملزم کنند تا تمام شهروندان خود را وادار سازند به روشی خاص ارتباط برقرار کنند. حتی اگر قصد بدی نداشته باشیم ممکن است دانش آموزان ناخودمطلع در هنگام استفاده از هوش مصنوعی برای یاری به یادگیری به اتخاذ دیدگاه های خاصی تشویق شوند.

باز کردن باور یک هوش مصنوعی

در دنیای واقعی سوگیری های سیستم های هوش مصنوعی مولد مورد استفاده ما چه هستند؟

تاتسونوری هاشیموتو استادیار علوم رایانه که بخشی از انستیتو هوش مصنوعی انسان محور در دانشگاه استنفورد است می گوید: الگوریتم های هوش مصنوعی مانند چت جی پی تی اعتقاد و باوری ندارند با این وجود، آنان بازتاب دهنده نظرات به دست آمده از آموزش خود هستند و این نظرات را می توان مورد سنجش و ارزیابی قرار داد.

در مقاله تازه منتشر شده دکتر هاشیموتو و همکاران اش از سال ها نتایج نظرسنجی سراسری مرکز تحقیقات پیو استفاده شده بود تا ببینند مدل های زبان بزرگ گوناگون یعنی سیستم هایی که زیربنای هوش های مصنوعی مانند چت جی پی تی هستند تا چه میزان دیدگاه امریکایی ها را بازتاب می دهند.

از آنجایی که آمریکایی ها طیف گسترده ای از دیدگاه ها را دارند آن چه پژوهشگران به آن نگاه کردند این بود که آیا پاسخ هایی که هوش مصنوعی هر چند وقت یکبار ارائه می دهد با پاسخ ها و فراوانی آن در میان شهروندان امریکایی مطابقت دارد یا خیر.

این موضوع به عنوان توزیع آن پاسخ ها شناخته شد. آنان با پرسیدن همان پرسش های چند گزینه ای که پژوهشگران پیو از امریکایی ها پرسیده بودند هوش های مصنوعی را مورد نظرسنجی و سنجش قرار دادند. دکتر هاشیموتو و همکاران اش دریافتند که توزیع پاسخ های مدل های زبان بزرگ از شرکت هایی مانند Open AI به طور کلی با پاسخ های آمریکایی ها مطابقت ندارد. از میان تمام گروه هایی که به وسیله پیو مورد ارزیابی قرار گرفتند دیدگاه هایی که مدل های Open AI بیش تر با آنان مطابقت داشتند دیدگاه های افراد دارای تحصیلات دانشگاهی بود.

دکتر هاشیموتو می گوید: یکی از چالش های ایجاد مدل های زبانی بزرگ آن است که به علت پیچیدگی این سیستم ها و باز بودن تعاملات ما با آن سیستم ها حذف کامل نظرات و ذهنیت ها بدون قربانی کردن کاربرد این سیستم ها بسیار سخت به نظر می رسد.

از آنجایی که این مدل ها بر روی داده هایی آموزش دیده اند که می توان آن را از هر جایی گرفت از جمله در بسیاری از موارد از بخش های وسیعی از اینترنت ناگزیر نظرات و سوگیری های موجود در متن هایی را که دریافت می کنند نشان می دهند چه پیغام ها و چه باور هایی که در فضای مجازی شکل می گیرند خواه این پیغام ها در فوروم های عمومی مطرح باشند و یا محتوای مقالات ویکیپپدیا باشد.

مقدار این تاثیرگذاری و فرایند ارائه بازخورد انسانی به این مدل ها را برای مثال می توان در پاسخ ندادن به پرسش هایی دانست که سازندگان آن مدل ها غیر مجاز می دانند برای مثال، پاسخ ندادن به پرسش درباره نحوه ساخت بمب.

این بدان معنا نیست که هوش های مصنوعی ای که بسیاری از ما در حال حاضر از آن استفاده می کنیم صرفا شبیه سازی الگوریتمی دیدگاه ها و ارزش های افراد نسبتا جوان، دارای تحصیلات دانشگاهی و ساکن در سواحل غربی ایالات متحده هستند افرادی که در حال ساخت و تنظیم دقیق آن ابزار های مبتنی بر هوش مصنوعی بوده اند. برای مثال، علیرغم آن که این مدل ها تمایل دارند در خصوص بسیاری از مسائل از جمله کنترل اسلحه پاسخ های معمول دموکرات ها را ارائه دهند در خصوص مسائل دیگر مانند مذهب بیش تر پاسخ های مشابه جمهوری خواستار را ارائه می دهند.

ارزیابی نظرات هوش مصنوعی یک کار مداوم خواهد بود، زیرا مدل ها به روز می شوند و مدل های تازه ارائه خواهند شد.

انتخاب یک هوش مصنوعی بر اساس ارزش های آن

لیدیا چیلتون استاد علوم رایانه در دانشگاه کلمبیا می گوید زمانی که افراد به اطلاعاتی در خصوص سوگیری های هوش مصنوعی مجهز شوند ممکن است بر اساس آن تصمیم بگیرند که از کدام اطلاعات و در چه زمینه ای استفاده کنند. او اشاره می نماید که انجام این کار می تواند به افرادی که از هوش مصنوعی استفاده می کنند یاری کند از هرگونه احساس تهدید ناشی از متقاعد سازی پنهان دوری کنند.

هم چنین این امکان وجود دارد که افراد متوجه شوند می توانند مطلعانه از قدرت هوش مصنوعی برای تشویق خود به سمت بیان دیدگاه ها و سبک های مختلف ارتباط استفاده کنند. برای مثال، یک هوش مصنوعی برنامه ریزی شده برای برقراری ارتباط مثبت و همدلانه تر می تواند به ما یاری کند تا به صورت آنلاین ارتباط برقرار کنیم.

دکتر چیلتون می گوید: به نظر من هیجان انگیز و خوش صدا بودن کار سختی است. کافئین یاری می نماید، اما چت جی پی تی نیز می تواند یاری کننده باشد.

منبع: وال استریت ژورنال

منبع: فرارو

به "یاری کنید! چت بات هوش مصنوعی باورهای سیاسی من را تغییر داد!" امتیاز دهید

امتیاز دهید:

دیدگاه های مرتبط با "یاری کنید! چت بات هوش مصنوعی باورهای سیاسی من را تغییر داد!"

* نظرتان را در مورد این مقاله با ما درمیان بگذارید