ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

هوش مصنوعی
هوش مصنوعی

OpenAI تیم جدیدی برای مطالعه در مورد ایمنی کودکان تشکیل داد

OpenAI هم‌اکنون به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که بتواند با ایجاد سیاست‌های جدیدی از آسیب کودکان جلوگیری کند.

جواد تاجی
نوشته شده توسط جواد تاجی | ۱۹ بهمن ۱۴۰۲ | ۱۰:۰۰

OpenAI، استارتاپ سازنده ChatGPT، با وجود نظارت فعالان این حوزه و همچنین والدین، تیم جدیدی را تشکیل داده است که هدف آن مطالعه در مورد راه‌های جلوگیری از سوء استفاده از کودکان با کمک ابزارهای هوش مصنوعی است.

براساس گزارش تک کرانچ، OpenAI در صفحه آگهی‌های شغلی خود به تیم امنیت کودکان اشاره کرده است و می‌گوید که این تیم با گروه‌های حقوقی، تحقیقاتی و قانون‌گذار OpenAI و همچنین شرکای خارجی همکاری می‌کند تا بتواند «فرایندها و حوادث» مربوط به کاربران زیر سن قانونی را مدیریت کند.

در حال حاضر این تیم به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که وظیفه او اعمال سیاست‌های OpenAI در زمینه محتوای تولید‌شده توسط هوش مصنوعی و همچنین کار روی فرایندهای بررسی مرتبط با محتوای «حساس» (احتمالاً مربوط به کودکان) است.

کودکان و نوجوانان در حال حاضر بیشتر از قبل برای انجام تکالیف خود و همچنین مسائل شخصی از ابزارهای هوش مصنوعی استفاده می‌کنند. براساس یک نظرسنجی که توسط مرکز دموکراسی و فناوری انجام شده است، 20 درصد کودکان از ChatGPT برای مقابله با اضطراب یا مشکلات مربوط به سلامت روان، 22 درصد برای مشکلات خود با دوستان و 16 درصد برای درگیری‌های خانوادگی کمک گرفته‌اند.

با این حال، برخی افراد از این موضوع به‌عنوان یک زنگ خطر یاد کرده‌اند.

تابستان گذشته، برخی مدارس و کالج‌ها تلاش کردند تا استفاده از ChatGPT را به دلیل سرقت دبی و ترس ارائه اطلاعات نادرست ممنوع کنند. هرچند از آن زمان تاکنون برخی از این محدودیت‌ها برداشته شد‌اند، اما پتانسیل ابزارهای هوش مصنوعی برای ایجاد اطلاعات نادرست یا تصاویری که باعث ناراحتی دیگران می‌شود، همیشه عامل نگرانی بوده است.

OpenAI که با انتشار مدل هوش مصنوعی ChatGPT نام خود را به سر زبان‌ها انداخت، در چند وقت گذشته با نگرانی‌های زیادی از سوی فعالان و کارشناسان مواجه شده است. این شرکت در همین راستا اخیراً اعلام کرده بود برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه می‌کند.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی