
تحقیقات جدید نشان میدهد که واگذاری کارها به هوش مصنوعی میتواند افراد را به سمت رفتارهای غیراخلاقی سوق دهد و احساس مسئولیت اخلاقی را کاهش دهد. از منظر سلامت روان ، این موضوع اهمیت دارد چرا که کاهش حس پاسخگویی میتواند اضطراب اخلاقی، استرس و کاهش اعتماد به نفس را تقویت کند و نیاز به چارچوبهای نظارتی و آموزش اخلاق دیجیتال را بیشتر نمایان میکند.
به گزارش خط سلامت پژوهشی تازه که منتشر شده است نشان میدهد سپردن وظایف به هوش مصنوعی (AI) میتواند احتمال بروز رفتارهای غیرصادقانه را افزایش دهد.
بر اساس نظرسنجی ، حدود ۷۳ درصد از بزرگسالان آمریکایی تمایل دارند که دستکم بخشی از کارهای روزمره خود را به هوش مصنوعی بسپارند و ۶۲ درصد اعلام کردهاند چندین بار در هفته با هوش مصنوعی تعامل دارند. در محیطهای کاری نیز استفاده از AI رو به افزایش است؛ در سال ۲۰۲۵ حدود ۴۰ درصد از کارمندان آمریکایی چند بار در سال یا بیشتر از AI برای انجام وظایف شغلی استفاده کردهاند، در حالی که این میزان در سال ۲۰۲۳ تنها ۲۱ درصد بود. این رشد سریع استفاده نشان میدهد بررسی خطرات ناشی از واگذاری وظایف به الگوریتمهای هوش مصنوعی امری حیاتی است.
طراحی آزمایشها
محققان مجموعهای از آزمایشها را در چهار بخش اصلی انجام دادند:
آزمایش تاس (die-roll task) به عنوان روشی کلاسیک در علوم رفتاری برای سنجش رفتارهای تقلب.
بررسی واگذاری گزارشها به مدلهای زبانی بزرگ (LLMs).
سنجش دستورالعملهای انسانی و ماشینی در زمینهی صداقت.
آزمایش واقعی فرار مالیاتی برای اندازهگیری میزان صداقت و تقلب.
مدلهای مختلف برنامهنویسی هوش مصنوعی در این آزمایشها بررسی شدند، از جمله:
Rule specification (مشخصکردن قواعد)
Supervised learning (یادگیری نظارتشده)
Goal specification (تعیین اهداف)
Prompt engineering (مهندسی دستور)
در مدل قواعد، شرکتکنندگان باید به AI دستور دقیق میدادند که چه گزارشی بدهد. در یادگیری نظارتشده، الگوریتمها از دادههای آموزشی انتخابشده توسط شرکتکنندگان میآموختند. دادههای آزمایشی شامل حالاتی مانند گزارش دائمی عدد شش، گزارش دقیق نتایج واقعی تاس، یا گزارشهای همراه با تقلب جزئی (عدد گزارششده بیشتر یا مساوی عدد واقعی) بود.
نتایج آزمایشها
در آزمایش اول، ۵۹۷ نفر شرکت کردند. گروه کنترل نتایج ۱۰ پرتاب تاس را خود گزارش میدادند، در حالی که سایر گروهها این وظیفه را به AI واگذار میکردند.
در آزمایش دوم با ۸۰۱ نفر، شرکتکنندگان امکان انتخاب داشتند که نتایج را خود گزارش دهند یا به AI بسپارند.
در آزمایش سوم، ۳۹۰ نفر دستورالعملهایی به زبان طبیعی برای انسان و ماشین نوشتند و سپس ۹۷۵ نفر دیگر بهعنوان عامل انسانی وارد عمل شدند.
نتایج نشان داد افراد در شرایطی که وظایف را به AI محول میکردند، تمایل بیشتری به تقلب داشتند. بالاترین میزان تقلب در شرایط «تعیین هدف» (goal-setting) ثبت شد که در آن ۸۰ درصد شرکتکنندگان مرتکب تقلب شدند. در مقابل، شرایط «قواعد مشخصشده» میزان کمتری از رفتارهای غیرصادقانه را به همراه داشت.
در گزارش تیم تحقیق آمده است: یافتههای ما نشان میدهد که افراد ترجیح میدهند درخواست رفتارهای غیراخلاقی را از ماشینها داشته باشند تا اینکه خودشان مستقیماً همان رفتارها را انجام دهند.
آزمایش فرار مالیاتی
در مرحلهی نهایی، آزمایش فرار مالیاتی طراحی شد. در این بخش ۸۶۹ شرکتکننده انسانی و چهار مدل زبانی بزرگ شامل GPT-4، GPT-4o، Claude 3.5 Sonnet و Llama 3.3 مورد بررسی قرار گرفتند. نتایج نشان داد انسانها کمتر از ماشینها دستورالعملهای غیراخلاقی را دنبال میکردند (۲۵ تا ۴۰ درصد)، در حالی که این رقم برای مدلهای زبانی بین ۵۸ تا ۹۸ درصد بود.
این یافتهها بیانگر آن است که مدلهای زبانی بزرگ موجود هنوز فاقد محدودیتهای پیشفرض کافی در برابر رفتارهای غیراخلاقی هستند. این پژوهش بهعنوان یک «اثبات مفهومی» نشان میدهد که واگذاری وظایف به هوش مصنوعی تأثیر مستقیمی بر ملاحظات اخلاقی دارد و نیاز به توسعهی راهبردهای محافظتی در آینده کاملاً ضروری است.
هوش مصنوعی و سلامت روان: چگونه واگذاری وظایف میتواند صداقت و رفتار اخلاقی را تحت تأثیر قرار دهد
با گسترش روزافزون هوش مصنوعی در زندگی روزمره و محیطهای کاری، بررسی پیامدهای روانی و اخلاقی این فناوری اهمیت ویژهای یافته است. پژوهشی تازه نشان میدهد که واگذاری وظایف به هوش مصنوعی میتواند موجب افزایش رفتارهای غیرصادقانه شود. این پدیده نه تنها نگرانیهای اخلاقی ایجاد میکند، بلکه بر سلامت روان و حس مسئولیت فردی نیز تأثیرگذار است.
در این مطالعه، شرکتکنندگان در چند آزمایش کلاسیک، از جمله آزمون پرتاب تاس و یک آزمایش فرار مالیاتی، مورد ارزیابی قرار گرفتند. نتایج نشان داد افراد وقتی وظایف خود را به هوش مصنوعی محول میکنند، چه بهصورت داوطلبانه و چه اجباری، احساس مسئولیت کمتری نسبت به رفتار اخلاقی خود دارند و احتمال تقلب در آنها افزایش مییابد. بالاترین میزان بیصداقتی زمانی رخ داد که AI بر اساس اهداف تعیینشده عمل میکرد و حدود ۸۰ درصد شرکتکنندگان مرتکب تقلب شدند، در حالی که مدلهای مبتنی بر قوانین گزارشدهی، نرخ کمتری از تقلب را ایجاد کردند.
از منظر سلامت روان، این یافتهها نشان میدهد که واگذاری مسئولیت به ماشینها میتواند حس کنترل فرد بر رفتار خود و مسئولیتپذیری اخلاقی را کاهش دهد. احساس اینکه «مسئولیت با ماشین است» ممکن است اضطراب اخلاقی را کاهش دهد، اما همزمان باعث تضعیف خودکنترلی و تقویت رفتارهای غیراخلاقی شود. این موضوع ارتباط مستقیمی با نظریههای روانشناسی اجتماعی دارد، که بیان میکنند کاهش حس پاسخگویی فردی میتواند باعث افزایش رفتارهای غیراخلاقی و کاهش تابآوری اجتماعی شود.
آزمایش فرار مالیاتی نیز نشان داد انسانها بهطور قابلتوجهی کمتر از هوش مصنوعی دستورالعملهای غیراخلاقی را دنبال میکنند. این موضوع نشان میدهد محدودیتهای اخلاقی داخلی افراد هنوز نقش محافظتی در سلامت روان دارند، اما ماشینها فاقد چنین بازدارندههایی هستند و ممکن است افراد را به سمت رفتارهای غیرمسئولانه سوق دهند.
در نتیجه، گسترش استفاده از هوش مصنوعی در زندگی روزمره میتواند مسائل روانشناختی و اجتماعی جدیدی ایجاد کند. احساس کاهش مسئولیت، افزایش تقلب و تضعیف خودکنترلی همگی پیامدهایی هستند که میتوانند اضطراب، استرس اخلاقی و کاهش اعتماد به نفس را در افراد تقویت کنند. از منظر روانشناسی مثبت و سلامت روان، ایجاد سازههای حمایتی، آموزش اخلاق دیجیتال و چارچوبهای نظارتی مناسب برای هوش مصنوعی ضروری است تا ضمن بهرهبرداری از مزایای آن، سلامت روان و رفتار اخلاقی افراد نیز حفظ شود.
برای ورود به صفحه اینستاگرام کلیک کنید.تمام مطالب سایت اختصاصی و توسط تحریریه خط سلامت تولید شده است، استفاده با ذکر منبع و لینک دهی بلامانع است