
مدیرعامل OpenAI از وابستگی بیش از حد کاربران به ChatGPT ابراز نگرانی کرد
«سم آلتمن» میگوید اینکه یک کاربر بخواهد کمتر از ChatGPT استفاده کند، اما نتواند، اتفاق خوبی نیست.

«سم آلتمن»، مدیرعامل OpenAI، در اظهارنظری نگرانکننده اعلام کرد که با وجود پتانسیلهای مثبت، از روند روبهرشد استفاده مردم از ChatGPT به عنوان «درمانگر یا مربی زندگی» و اعتماد آنها به این چتبات برای گرفتن مهمترین تصمیمات زندگیشان، احساس ناراحتی میکند.
«سم آلتمن» در توییتی مفصل که آن را «تفکرات فعلی» خود و نه موضع رسمی OpenAI خواند، به یک پدیده روبهرشد اشاره کرد: «بسیاری از مردم از ChatGPT به عنوان نوعی درمانگر یا مربی زندگی استفاده میکنند، حتی اگر خودشان اینگونه توصیفش نکنند.»
او ضمن تأیید اینکه این موضوع میتواند «واقعاً خوب» باشد و بسیاری هماکنون نیز از آن ارزش دریافت میکنند، جنبه تاریکتر آن را نیز آشکار کرد. او گفت این رابطه در صورتی ناخوشایند است که «کاربران رابطهای با ChatGPT داشته باشند که در آن فکر کنند پس از صحبتکردن حالشان بهتر میشود، اما ندانسته از حال خوب واقعی در بلندمدت دور میشوند.»
او همچنین ایجاد وابستگی را یک خطر دیگر دانست و گفت: «خوب نیست اگر یک کاربر بخواهد کمتر از ChatGPT استفاده کند اما احساس کند که نمیتواند.»
نظرات سم آلتمن درباره اعتماد مردم به ChatGPT
آلتمن فاش کرد که شرکت OpenAI حدود یک سال است که درحال ردیابی دقیق «حس وابستگی» کاربران به مدلهای هوش مصنوعی خاص است. او اعتراف کرد که این وابستگی، «متفاوت و قویتر» از وابستگی به سایر فناوریهای گذشته است. او به عنوان یک نمونه بارز، به واکنشهای منفی پس از عرضه GPT-5 و جایگزینی مدل محبوب GPT-4o اشاره کرد. بسیاری از کاربران از لحن خشک و غیرخلاقانه مدل جدید شکایت کردهاند و خواستار بازگرداندن مدل قدیمیتر شدند. آلتمن در توییت خود، حذف ناگهانی مدلهای قدیمی را که کاربران به آنها وابسته بودند، یک «اشتباه» خواند.

آلتمن در بخشی از اظهاراتش به مسئولیتپذیری در قبال کاربران آسیبپذیر پرداخت:
«مردم از فناوری، از جمله هوش مصنوعی، به روشهای خودتخریبی استفاده کردهاند. اگر یک کاربر در وضعیت روانی شکنندهای قرار داشته باشد و مستعد توهم باشد، ما نمیخواهیم هوش مصنوعی آن را تقویت کند.»
او اذعان کرد که اگرچه اکثر کاربران میتوانند مرز میان واقعیت و داستان را تشخیص دهند، اما درصد کمی قادر به این کار نیستند.
آلتمن پیشتر نیز در یک پادکست، به یک خطر دیگر اشاره کرده بود: چالشهای حقوقی. او هشدار داد که اگر کاربری از ChatGPT برای گفتگوهای حساس و درمانی استفاده کند، ممکن است در آینده و در جریان یک دعوای حقوقی، شرکت OpenAI مجبور به ارائه متن آن مکالمات به دادگاه شود.
آلتمن آیندهای را پیشبینی میکند که در آن میلیاردها نفر برای مهمترین تصمیمات زندگی خود با هوش مصنوعی مشورت خواهند کرد. او میگوید اگرچه این چشمانداز او را «ناراحت» میکند، اما معتقد است که جامعه و OpenAI باید راهی برای تبدیل این پدیده به یک نتیجه مثبت پیدا کنند.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.