
پژوهشگران: دانشجویان روانآزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده میکنند
روانشناسان کره جنوبی با نظرسنجی از ۵۰۴ دانشجوی هنر در چین، به نتایج نگرانکنندهای دست یافتند.

پژوهش جدیدی نشان میدهد ارتباط آماری قابلتوجهی میان ویژگیهای شخصیتی «تاریک» مانند خودشیفتگی، روانآزاری و ماکیاولیسم با استفاده بیشتر از ابزارهای هوش مصنوعی مولد مانند ChatGPT برای انجام تکالیف دانشگاهی وجود دارد.
براساس گزارش Futurism، مطالعهای جدید به بررسی جنبه تاریکتر هوش مصنوعی پرداخته است: چه کسانی بیشتر از همه از این فناوری برای تقلب و میانبرزدن استفاده میکنند؟ تیمی از روانشناسان در کره جنوبی با نظرسنجی از ۵۰۴ دانشجوی هنر در چین، به نتایج نگرانکنندهای دست یافتند.
سوءاستفاده دانشجویان از هوش مصنوعی
این پژوهش براساس مدل روانشناسی «سهگانه تاریک» (Dark Triad) انجام شد که ۳ ویژگی شخصیتی منفی را ارزیابی میکند:
- خودشیفتگی (Narcissism): تمایل به خودبزرگبینی و نیاز به تحسین.
- ماکیاولیسم (Machiavellianism): تمایل به فریبکاری و سوءاستفاده از دیگران برای رسیدن به هدف.
- روانآزاری (Psychopathy): فقدان همدلی و رفتارهای ضداجتماعی.

نتایج به وضوح نشان داد دانشجویانی که نمرات بالاتری در این سه ویژگی کسب کردند، بهطور قابلتوجهی بیشتر احتمال داشت که برای انجام تکالیف خود به ابزارهایی مانند ChatGPT و Midjourney متکی باشند و سعی کنند آثار تولیدشده توسط هوش مصنوعی را بهعنوان کار خود ارائه دهند.
این مطالعه همچنین یک مکانیسم روانشناختی را برای این رفتار شناسایی کرد. طبق یافتهها، این ویژگیهای شخصیتی تاریک، با اضطراب تحصیلی بالاتر و تمایل بیشتر به اهمالکاری مرتبط بودند. این اضطراب و به تعویق انداختن کارها، به نوبه خود، فرد را به سمت استفاده از هوش مصنوعی بهعنوان راهحلی سریع و راه فرار سوق میدهد.
علاوهبراین، یک عامل دیگر نیز شناسایی شد: مادیگرایی. دانشجویانی که بیشتر به دنبال پاداشها و تحسینهای خارجی بودند، تمایل بیشتری به استفاده از هوش مصنوعی برای دستیابی به این اهداف داشتند.
نویسندگان این مقاله استفاده از هوش مصنوعی برای تقلب را نوعی «سوءرفتار تحصیلی» مشابه دروغگویی و سرقت ادبی میدانند و برای مقابله با آن راهکارهایی را به مؤسسات و دانشگاهها پیشنهاد میکنند:
- بازطراحی برنامههای درسی: طراحی تکالیف و پروژههایی که «کمتر مستعد سرقت ادبی» و تقلید توسط هوش مصنوعی باشند.
- آموزش اخلاق هوش مصنوعی: مدارس و دانشگاهها باید بهطور جدی به دانشجویان درباره «خطرات و معضلات اخلاقی» مرتبط با این فناوری آموزش دهند.
- ارائه حمایتهای روانشناختی: با توجه به ارتباط این رفتار با اضطراب و مشکلات روانشناختی، ارائه خدمات مشاوره و حمایت روانی به دانشجویان میتواند به کاهش این پدیده کمک کند.
یافتههای این پژوهش در ژورنال BMC Psychology منتشر شده است. همچنین محققان در پژوهش دیگری دریافتند در ۱۴ درصد از مقالات علمی نشانههای استفاده از هوش مصنوعی وجود دارد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.