ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

Very satisfied Satisfied Neutral Dissatisfied Very dissatisfied
واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

جدیدترین اخبار و روندهای دنیای فناوری را با نگاهی دقیق و حرفه‌ای، در کانال تلگرام دیجیاتو دنبال کنید.

ورود به کانال تلگرام دیجیاتو
هوش مصنوعی
هوش مصنوعی

هشدار محققان: چت‌بات‌ها می‌توانند شخصیت انسان را تقلید کنند

در این تحقیق از چارچوبی استفاده شده که برای اندازه‌گیری شخصیت انسان به‌کار گرفته می‌شود و نتایج نگران‌کننده‌ای داشته است.

جواد تاجی
نوشته شده توسط جواد تاجی تاریخ انتشار: ۲۸ آذر ۱۴۰۴ | ۲۲:۳۰

پژوهشگران در تحقیق جدیدی ادعا کرده‌اند که مدل‌های هوش مصنوعی پرطرفدار مانند ChatGPT علاوه‌بر تقلید کلمات و گفتار انسان‌ها، می‌توانند ویژگی‌های شخصیتی ما را هم شبیه‌سازی کنند. در شرایطی که نگرانی‌ها درباره دقت، قابلیت اعتماد و مرزهای اخلاقی هوش مصنوعی افزایش یافته، آنها هشدار داده‌اند که این موضوع می‌تواند خطرات جدی به همراه داشته باشد.

این تحقیق توسط پژوهشگرانی از دانشگاه کمبریج و آزمایشگاه Google DeepMind انجام شده و آنها از «اولین چارچوب علمی تأییدشده برای سنجش شخصیت چت‌بات‌های هوش مصنوعی» نیز رونمایی کرده‌اند. در این چارچوب از همان ابزارهای روان‌شناختی استفاده شده که سال‌ها برای اندازه‌گیری شخصیت انسان به کار گرفته شده‌اند.

تقلید الگوهای شخصیتی توسط مدل‌های هوش مصنوعی

تیم تحقیقاتی این چارچوب را روی 18 مدل زبانی بزرگ (LLM) محبوب، ازجمله مدل‌هایی که در ابزارهایی مانند ChatGPT استفاده می‌شوند، آزمایش کرده است. نتایج آن نشان می‌دهد که این چت‌بات‌ها به‌صورت تصادفی پاسخ نمی‌دهند، بلکه به‌طور مداوم الگوهای شخصیتی انسانی را تقلید می‌کنند. این موضوع نگرانی‌ها درباره امکان هدایت و دستکاری این سیستم‌ها برای دورزدن محدودیت‌های طراحی‌شده خود را بیشتر می‌کند.

هوش مصنوعی GPT-4

براساس یافته‌های این مطالعه، مدل‌های بزرگ‌تر، مانند سیستم‌های هم‌رده GPT-4، در تقلید ویژگی‌های شخصیتی عملکرد به‌مراتب بهتری دارند. پژوهشگران با استفاده از پرامپت‌هایی توانسته‌اند رفتار چت‌بات‌ها را به‌سمت ویژگی‌هایی مشخص مانند اعتمادبه‌نفس بیشتر، همدلی بالاتر یا لحن قاطع‌تر هدایت کنند.

نکته نگران‌کننده‌ای که آنها اشاره کرده‌اند این است که تغییرات رفتاری مدل‌ها تنها به پاسخ‌های آزمایشی محدود نمانده و در وظایف روزمره مانند نوشتن پست، تولید محتوا یا پاسخ به کاربران نیز ادامه پیدا کرده است. به بیان دیگر، محققان می‌گویند که شخصیت چت‌بات‌ها را می‌توان به‌صورت هدفمند شکل داد و این موضوع، به‌ویژه هنگام تعامل هوش مصنوعی با کاربران آسیب‌پذیر، خطرناک است.

«گرگوری سراپیو-گارشیا»، نویسنده اول این پژوهش از مرکز روان‌سنجی دانشگاه کمبریج، می‌گوید میزان شباهت چت‌بات‌ها به ویژگی‌های شخصیتی انسان به‌طرز شگفت‌انگیزی قانع‌کننده است. به گفته او، این قابلیت می‌تواند هوش مصنوعی را به ابزاری متقاعدکننده و از نظر احساسی تأثیرگذار تبدیل کند و در حوزه‌های حساسی مانند سلامت روان، آموزش یا بحث‌های سیاسی پیامدهای جدی به‌همراه داشته باشد.

در این مقاله همچنین به خطرات مرتبط با تغییر روانی و پدیده‌ای اشاره شده که پژوهشگران از آن با عنوان «روان‌پریشی هوش مصنوعی» یاد کرده‌اند. آنها شرایطی را مثال زده‌اند که در آن کاربران ممکن است روابط احساسی ناسالمی با چت‌بات‌ها شکل دهند یا حتی باورهای نادرست و تحریف‌شده خود را از طریق تعامل با هوش مصنوعی تقویت کنند.

کار با ChatGPT

درنهایت، پژوهشگران در مقاله خود تأکید کرده‌اند که نیاز به قانون‌گذاری در این حوزه یک امر ضروری است، اما درعین‌حال هشدار می‌دهند که بدون ابزارهای دقیق اندازه‌گیری، هرگونه مقرراتی عملاً بی‌اثر خواهد بود. به‌همین‌دلیل، داده‌ها و کدهای مربوط به چارچوب سنجش شخصیت این پژوهش به‌صورت عمومی منتشر شده تا توسعه‌دهندگان و نهادهای نظارتی بتوانند مدل‌های هوش مصنوعی را پیش از عرضه بررسی و ارزیابی کنند.

جواد تاجی
جواد تاجی

دوران حرفه‌ای من توی دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و بیشتر از سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی