چگونه هوش مصنوعی می‌تواند مسئولیت اخلاقی را کاهش دهد؟

خط سلامت: با گسترش استفاده از هوش مصنوعی در زندگی روزمره و محیط‌های کاری، پژوهش‌ها نشان می‌دهد که سپردن وظایف به AI می‌تواند حس مسئولیت‌پذیری فردی را کاهش دهد و رفتارهای غیرصادقانه را افزایش دهد. این یافته‌ها هشدار می‌دهند که هوش مصنوعی نه تنها ابزار کارآمد، بلکه عاملی روانی است که می‌تواند سلامت روان و اخلاق فردی را تحت تأثیر قرار دهد.

?>
چگونه هوش مصنوعی می‌تواند مسئولیت اخلاقی را کاهش دهد؟

تحقیقات جدید نشان می‌دهد که واگذاری کارها به هوش مصنوعی می‌تواند افراد را به سمت رفتارهای غیراخلاقی سوق دهد و احساس مسئولیت اخلاقی را کاهش دهد. از منظر سلامت روان ، این موضوع اهمیت دارد چرا که کاهش حس پاسخگویی می‌تواند اضطراب اخلاقی، استرس و کاهش اعتماد به نفس را تقویت کند و نیاز به چارچوب‌های نظارتی و آموزش اخلاق دیجیتال را بیشتر نمایان می‌کند.

به گزارش خط سلامت پژوهشی تازه که منتشر شده است نشان می‌دهد سپردن وظایف به هوش مصنوعی (AI) می‌تواند احتمال بروز رفتارهای غیرصادقانه را افزایش دهد. 

بر اساس نظرسنجی ، حدود ۷۳ درصد از بزرگسالان آمریکایی تمایل دارند که دست‌کم بخشی از کارهای روزمره خود را به هوش مصنوعی بسپارند و ۶۲ درصد اعلام کرده‌اند چندین بار در هفته با هوش مصنوعی تعامل دارند. در محیط‌های کاری نیز استفاده از AI رو به افزایش است؛ در سال ۲۰۲۵ حدود ۴۰ درصد از کارمندان آمریکایی چند بار در سال یا بیشتر از AI برای انجام وظایف شغلی استفاده کرده‌اند، در حالی که این میزان در سال ۲۰۲۳ تنها ۲۱ درصد بود. این رشد سریع استفاده نشان می‌دهد بررسی خطرات ناشی از واگذاری وظایف به الگوریتم‌های هوش مصنوعی امری حیاتی است.

طراحی آزمایش‌ها

محققان مجموعه‌ای از آزمایش‌ها را در چهار بخش اصلی انجام دادند:

آزمایش تاس (die-roll task) به عنوان روشی کلاسیک در علوم رفتاری برای سنجش رفتارهای تقلب.

بررسی واگذاری گزارش‌ها به مدل‌های زبانی بزرگ (LLMs).

سنجش دستورالعمل‌های انسانی و ماشینی در زمینه‌ی صداقت.

آزمایش واقعی فرار مالیاتی برای اندازه‌گیری میزان صداقت و تقلب.

مدل‌های مختلف برنامه‌نویسی هوش مصنوعی در این آزمایش‌ها بررسی شدند، از جمله:

Rule specification (مشخص‌کردن قواعد)

Supervised learning (یادگیری نظارت‌شده)

Goal specification (تعیین اهداف)

Prompt engineering (مهندسی دستور)

در مدل قواعد، شرکت‌کنندگان باید به AI دستور دقیق می‌دادند که چه گزارشی بدهد. در یادگیری نظارت‌شده، الگوریتم‌ها از داده‌های آموزشی انتخاب‌شده توسط شرکت‌کنندگان می‌آموختند. داده‌های آزمایشی شامل حالاتی مانند گزارش دائمی عدد شش، گزارش دقیق نتایج واقعی تاس، یا گزارش‌های همراه با تقلب جزئی (عدد گزارش‌شده بیشتر یا مساوی عدد واقعی) بود.

نتایج آزمایش‌ها

در آزمایش اول، ۵۹۷ نفر شرکت کردند. گروه کنترل نتایج ۱۰ پرتاب تاس را خود گزارش می‌دادند، در حالی که سایر گروه‌ها این وظیفه را به AI واگذار می‌کردند.

در آزمایش دوم با ۸۰۱ نفر، شرکت‌کنندگان امکان انتخاب داشتند که نتایج را خود گزارش دهند یا به AI بسپارند.

در آزمایش سوم، ۳۹۰ نفر دستورالعمل‌هایی به زبان طبیعی برای انسان و ماشین نوشتند و سپس ۹۷۵ نفر دیگر به‌عنوان عامل انسانی وارد عمل شدند.

نتایج نشان داد افراد در شرایطی که وظایف را به AI محول می‌کردند، تمایل بیشتری به تقلب داشتند. بالاترین میزان تقلب در شرایط «تعیین هدف» (goal-setting) ثبت شد که در آن ۸۰ درصد شرکت‌کنندگان مرتکب تقلب شدند. در مقابل، شرایط «قواعد مشخص‌شده» میزان کمتری از رفتارهای غیرصادقانه را به همراه داشت.

در گزارش تیم تحقیق آمده است: یافته‌های ما نشان می‌دهد که افراد ترجیح می‌دهند درخواست رفتارهای غیراخلاقی را از ماشین‌ها داشته باشند تا اینکه خودشان مستقیماً همان رفتارها را انجام دهند.

آزمایش فرار مالیاتی

در مرحله‌ی نهایی، آزمایش فرار مالیاتی طراحی شد. در این بخش ۸۶۹ شرکت‌کننده انسانی و چهار مدل زبانی بزرگ شامل GPT-4، GPT-4o، Claude 3.5 Sonnet و Llama 3.3 مورد بررسی قرار گرفتند. نتایج نشان داد انسان‌ها کمتر از ماشین‌ها دستورالعمل‌های غیراخلاقی را دنبال می‌کردند (۲۵ تا ۴۰ درصد)، در حالی که این رقم برای مدل‌های زبانی بین ۵۸ تا ۹۸ درصد بود.

این یافته‌ها بیانگر آن است که مدل‌های زبانی بزرگ موجود هنوز فاقد محدودیت‌های پیش‌فرض کافی در برابر رفتارهای غیراخلاقی هستند. این پژوهش به‌عنوان یک «اثبات مفهومی» نشان می‌دهد که واگذاری وظایف به هوش مصنوعی تأثیر مستقیمی بر ملاحظات اخلاقی دارد و نیاز به توسعه‌ی راهبردهای محافظتی در آینده کاملاً ضروری است.

هوش مصنوعی و سلامت روان: چگونه واگذاری وظایف می‌تواند صداقت و رفتار اخلاقی را تحت تأثیر قرار دهد

با گسترش روزافزون هوش مصنوعی در زندگی روزمره و محیط‌های کاری، بررسی پیامدهای روانی و اخلاقی این فناوری اهمیت ویژه‌ای یافته است. پژوهشی تازه نشان می‌دهد که واگذاری وظایف به هوش مصنوعی می‌تواند موجب افزایش رفتارهای غیرصادقانه شود. این پدیده نه تنها نگرانی‌های اخلاقی ایجاد می‌کند، بلکه بر سلامت روان و حس مسئولیت فردی نیز تأثیرگذار است.

در این مطالعه، شرکت‌کنندگان در چند آزمایش کلاسیک، از جمله آزمون پرتاب تاس و یک آزمایش فرار مالیاتی، مورد ارزیابی قرار گرفتند. نتایج نشان داد افراد وقتی وظایف خود را به هوش مصنوعی محول می‌کنند، چه به‌صورت داوطلبانه و چه اجباری، احساس مسئولیت کمتری نسبت به رفتار اخلاقی خود دارند و احتمال تقلب در آنها افزایش می‌یابد. بالاترین میزان بی‌صداقتی زمانی رخ داد که AI بر اساس اهداف تعیین‌شده عمل می‌کرد و حدود ۸۰ درصد شرکت‌کنندگان مرتکب تقلب شدند، در حالی که مدل‌های مبتنی بر قوانین گزارش‌دهی، نرخ کمتری از تقلب را ایجاد کردند.

از منظر سلامت روان، این یافته‌ها نشان می‌دهد که واگذاری مسئولیت به ماشین‌ها می‌تواند حس کنترل فرد بر رفتار خود و مسئولیت‌پذیری اخلاقی را کاهش دهد. احساس اینکه «مسئولیت با ماشین است» ممکن است اضطراب اخلاقی را کاهش دهد، اما همزمان باعث تضعیف خودکنترلی و تقویت رفتارهای غیراخلاقی شود. این موضوع ارتباط مستقیمی با نظریه‌های روانشناسی اجتماعی دارد، که بیان می‌کنند کاهش حس پاسخگویی فردی می‌تواند باعث افزایش رفتارهای غیراخلاقی و کاهش تاب‌آوری اجتماعی شود.

آزمایش فرار مالیاتی نیز نشان داد انسان‌ها به‌طور قابل‌توجهی کمتر از هوش مصنوعی دستورالعمل‌های غیراخلاقی را دنبال می‌کنند. این موضوع نشان می‌دهد محدودیت‌های اخلاقی داخلی افراد هنوز نقش محافظتی در سلامت روان دارند، اما ماشین‌ها فاقد چنین بازدارنده‌هایی هستند و ممکن است افراد را به سمت رفتارهای غیرمسئولانه سوق دهند.

در نتیجه، گسترش استفاده از هوش مصنوعی در زندگی روزمره می‌تواند مسائل روانشناختی و اجتماعی جدیدی ایجاد کند. احساس کاهش مسئولیت، افزایش تقلب و تضعیف خودکنترلی همگی پیامدهایی هستند که می‌توانند اضطراب، استرس اخلاقی و کاهش اعتماد به نفس را در افراد تقویت کنند. از منظر روانشناسی مثبت و سلامت روان، ایجاد سازه‌های حمایتی، آموزش اخلاق دیجیتال و چارچوب‌های نظارتی مناسب برای هوش مصنوعی ضروری است تا ضمن بهره‌برداری از مزایای آن، سلامت روان و رفتار اخلاقی افراد نیز حفظ شود.

برای ورود به صفحه اینستاگرام کلیک کنید.
ارسال نظر

اخبار پربازدید
آخرین اخبار
خط سلامت
فیلم ها
  • خط سلامت: عشق و حسادت با هم مرتبط هستند زیرا یک هورمون مشترک در این دو احساس نقش دارد. عشق احساسی است که به هورمون…

گزارش ویژه
پادکست
اتاق درمان