» هوش مصنوعی و رباتیک » پژوهشگران: دانشجویان روان‌آزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده می‌کنند
پژوهشگران: دانشجویان روان‌آزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده می‌کنند
هوش مصنوعی و رباتیک

پژوهشگران: دانشجویان روان‌آزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده می‌کنند

دی ۶, ۱۴۰۴ 1018

پژوهش جدیدی نشان می‌دهد ارتباط آماری قابل‌توجهی میان ویژگی‌های شخصیتی «تاریک» مانند خودشیفتگی، روان‌آزاری و ماکیاولیسم با استفاده بیشتر از ابزارهای هوش مصنوعی مولد مانند ChatGPT برای انجام تکالیف دانشگاهی وجود دارد.

براساس گزارش Futurism، مطالعه‌ای جدید به بررسی جنبه تاریک‌تر هوش مصنوعی پرداخته است: چه کسانی بیشتر از همه از این فناوری برای تقلب و میانبرزدن استفاده می‌کنند؟ تیمی از روانشناسان در کره جنوبی با نظرسنجی از ۵۰۴ دانشجوی هنر در چین، به نتایج نگران‌کننده‌ای دست یافتند.

سوءاستفاده دانشجویان از هوش مصنوعی

این پژوهش براساس مدل روانشناسی «سه‌گانه تاریک» (Dark Triad) انجام شد که ۳ ویژگی شخصیتی منفی را ارزیابی می‌کند:

  1. خودشیفتگی (Narcissism): تمایل به خودبزرگ‌بینی و نیاز به تحسین.
  2. ماکیاولیسم (Machiavellianism): تمایل به فریبکاری و سوءاستفاده از دیگران برای رسیدن به هدف.
  3. روان‌آزاری (Psychopathy): فقدان همدلی و رفتارهای ضداجتماعی.
استفاده دانشجویان از هوش مصنوعی
پژوهشگران: دانشجویان روان‌آزار و خودشیفته بیشتر از هوش مصنوعی سوءاستفاده می‌کنند

نتایج به وضوح نشان داد دانشجویانی که نمرات بالاتری در این سه ویژگی کسب کردند، به‌طور قابل‌توجهی بیشتر احتمال داشت که برای انجام تکالیف خود به ابزارهایی مانند ChatGPT و Midjourney متکی باشند و سعی کنند آثار تولیدشده توسط هوش مصنوعی را به‌عنوان کار خود ارائه دهند.

این مطالعه همچنین یک مکانیسم روانشناختی را برای این رفتار شناسایی کرد. طبق یافته‌ها، این ویژگی‌های شخصیتی تاریک، با اضطراب تحصیلی بالاتر و تمایل بیشتر به اهمال‌کاری مرتبط بودند. این اضطراب و به تعویق انداختن کارها، به نوبه خود، فرد را به سمت استفاده از هوش مصنوعی به‌عنوان راه‌حلی سریع و راه فرار سوق می‌دهد.

علاوه‌براین، یک عامل دیگر نیز شناسایی شد: مادی‌گرایی. دانشجویانی که بیشتر به دنبال پاداش‌ها و تحسین‌های خارجی بودند، تمایل بیشتری به استفاده از هوش مصنوعی برای دستیابی به این اهداف داشتند.

نویسندگان این مقاله استفاده از هوش مصنوعی برای تقلب را نوعی «سوءرفتار تحصیلی» مشابه دروغگویی و سرقت ادبی می‌دانند و برای مقابله با آن راهکارهایی را به مؤسسات و دانشگاه‌ها پیشنهاد می‌کنند:

  • بازطراحی برنامه‌های درسی: طراحی تکالیف و پروژه‌هایی که «کمتر مستعد سرقت ادبی» و تقلید توسط هوش مصنوعی باشند.
  • آموزش اخلاق هوش مصنوعی: مدارس و دانشگاه‌ها باید به‌طور جدی به دانشجویان درباره «خطرات و معضلات اخلاقی» مرتبط با این فناوری آموزش دهند.
  • ارائه حمایت‌های روانشناختی: با توجه به ارتباط این رفتار با اضطراب و مشکلات روانشناختی، ارائه خدمات مشاوره و حمایت روانی به دانشجویان می‌تواند به کاهش این پدیده کمک کند.

یافته‌های این پژوهش در ژورنال  BMC Psychology منتشر شده است. همچنین محققان در پژوهش دیگری دریافتند  در ۱۴ درصد از مقالات علمی نشانه‌های استفاده از هوش مصنوعی وجود دارد.

به این نوشته امتیاز بدهید!

دیجیاتو digiato

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

  • ×
    ورود / عضویت