ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

محتوای بزرگسالانه ChatGPT
هوش مصنوعی

تغییر سیاست OpenAI: محتوای بزرگسالانه در ChatGPT آزاد می‌شود

برای دسترسی به محتوای بزرگسالانه در ChatGPT سن کاربر باید توسط OpenAI تأیید شود.

آزاد کبیری
نوشته شده توسط آزاد کبیری تاریخ انتشار: ۲۳ مهر ۱۴۰۴

OpenAI می‌گوید به‌زودی به کاربرانی که سن آن‌ها تأیید شده باشد، اجازه می‌دهد تا با ChatGPT مکالماتی با محتوای بزرگسالانه داشته باشند. همزمان با این تصمیم جنجالی، این شرکت یک «شورای تخصصی سلامت و هوش مصنوعی» برای مقابله با خطرات این فناوری تشکیل داده است.

تاکنون، OpenAI سیاست‌های بسیار سختگیرانه‌ای را برای جلوگیری از تولید محتوای نامناسب، به‌ویژه در زمینه محتواهای بزرگسالانه و سلامت روان، اعمال می‌کرد. اما اکنون، «سم آلتمن»، مدیرعامل این شرکت، اعلام کرده است که این محدودیت‌ها برداشته می‌شود.

آلتمن در پستی در شبکه اجتماعی ایکس نوشت:

«ما ChatGPT را بسیار محدود کردیم تا مطمئن شویم درباره مسائل مربوط به سلامت روان محتاط هستیم. اما متوجه شدیم که این کار لذت استفاده از چت‌بات یا کاربردهای آن را برای بسیاری از کاربرانی که مشکل سلامت روان نداشتند، کاهش داده است.»

او تأیید کرد که از ماه دسامبر و با راه‌اندازی کامل سیستم بررسی سن کاربران، این شرکت به عنوان بخشی از اصل «با کاربران بزرگسال مانند بزرگسالان رفتار کنید»، اجازه بهره‌مندی از محتواهای بیشتری، از جمله محتواهای بزرگسالانه، را خواهد داد.

این تغییر مسیر را می‌توان پاسخی به دو فشار بزرگ دانست: شکایت کاربران از محدودیت‌های بیش‌ازحد این چت‌بات و رقابت شدید با شرکت‌هایی مانند Character.AI و xAI که با ارائه همدم‌های هوش مصنوعی جنجالی، موفق به جذب میلیون‌ها کاربر شده‌اند.

تغییر سیاست OpenAI درباره محتوای بزرگسالانه در ChatGPT

سم آلتمن مدعی است این تغییر سیاست به این دلیل ممکن شده که OpenAI «توانسته است مسائل جدی سلامت روان را کاهش دهد» و اکنون «ابزارهای جدیدی» برای تشخیص پریشانی کاربر در اختیار دارد. اما این ادعا با شواهد و اقدامات دیگر این شرکت در تضاد است.

محتوای بزرگسالانه ChatGPT

در ماه‌های اخیر، چندین مورد نگران‌کننده درباره ChatGPT منتشر شده است؛ از جمله شکایت والدین نوجوانی که ادعا می‌کنند این چت‌بات، فرزندشان را به خودکشی تشویق کرده است. با وجود این سابقه، OpenAI از تشکیل یک «شورای تخصصی سلامت و هوش مصنوعی» خبر داد. این شورا متشکل از هشت متخصص و محقق برای مشاوره به این شرکت درمورد سناریوهای حساس است.

بسیاری از منتقدان به این شورا با دیده‌ تردید نگاه می‌کنند. اولاً، خود OpenAI در بیانیه‌اش تأکید کرده است که این شورا هیچ قدرت اجرایی واقعی ندارد و فقط مشورت می‌دهد. این رویکرد یادآور شوراهای مشورتی مشابهی است که شرکت‌های دیگری مانند متا تشکیل داده و سپس نظرات آنها را نادیده گرفته شده است.

اما نگران‌کننده‌تر از آن، ترکیب اعضای این شورا است. براساس گزارش‌ها، در میان این هشت متخصص، هیچ کارشناس پیشگیری از خودکشی وجود ندارد؛ این درحالی است که بسیاری از متخصصان اخیراً از OpenAI خواسته بودند تا اقدامات محافظتی بیشتری را برای کاربران درگیر با افکار خودکشی اعمال کند.

آزاد کبیری

دانش‌آموخته‌ی ساکتِ زبان‌شناسی هستم و همان‌قدر که به کلمات علاقه‌مندم، سرک‌کشیدن به هر گوشه‌ از تکنولوژی و علم را هم دوست دارم. حدود 15 سال نیز از نگارش اولین متن رسمی من می‌گذرد.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی