دانشمند ارشد سابق OpenAI شرکت جدیدی با تمرکز بر ایمنی هوش مصنوعی راهاندازی کرد
«ایلیا سوتسکیور»، یکی از بنیانگذاران و دانشمند ارشد سابق OpenAI، شرکت جدیدی به نام Safe Superintelligence را با تمرکز بر ایمنی هوش مصنوعی راهاندازی کرد.
«ایلیا سوتسکیور»، یکی از بنیانگذاران و دانشمند ارشد سابق OpenAI، شرکت جدیدی به نام Safe Superintelligence را با تمرکز بر ایمنی هوش مصنوعی راهاندازی کرد.
وی اعلام کرده است که مراحل راهاندازی شرکت جدید هوش مصنوعی به نام Safe Superintelligence درجریان است. این شرکت در زمانی که برخی از بزرگترین شرکتهای فناوری به دنبال تسلط بر بازار هوش مصنوعی مولد هستند، بر ایجاد یک محیط ایمن هوش مصنوعی تمرکز دارد.
تأسیس Safe Superintelligence
در پست منتشر شده، سوتسکیور به بیان اهداف شرکت پرداخته و میگوید: «تمرکز اصلی ما روی این موضوع است که مدل کسبوکار ما ایمنی، امنیت و پیشرفت را در موضوعات تجاری در کوتاهمدت درنظر بگیرد.» او همچنین افزود که شرکت جدید او در پاسخ به نیاز فزاینده به هوش مصنوعی ایمن و قابل اعتماد تأسیس شده است.
سوتسکیور به همراه دنیل لوی، محقق سابق OpenAI، و دنیل گروس، یکی از بنیانگذاران Cue و رهبر سابق هوش مصنوعی در اپل، Safe Superintelligence را تأسیس کردهاند. این شرکت میخواهد تا با تمرکز بر ایمنی و توانمندیهای هوش مصنوعی، پیشرفتهای چشمگیری در این حوزه ایجاد کند.
ایلیا سوتسکیور در ماه می از OpenAI، که تحت حمایت مایکروسافت بود، جدا شد. او نقش کلیدی در اخراج و بازگشت مدیرعامل سم آلتمن در نوامبر سال گذشته داشت و پس از بازگشت آلتمن از هیئت مدیره شرکت کنار گذاشته شد. در پی این تحولات، سوتسکیور تصمیم به تأسیس شرکتی جدید با اولویت ایمنی و پیشرفت در زمینه هوش مصنوعی گرفت.
اهداف و برنامههای Safe Superintelligence
Safe Superintelligence در وبسایت خود به عنوان یک شرکت آمریکایی توصیف شده است. این شرکت میخواهد تا یک سیستم هوش مصنوعی قدرتمند و ایمن ایجاد کند که بتواند نیازهای پیچیده کاربران را برآورده سازد و در عین حال از ایمنی و امنیت برخوردار باشد.
در حالی که بسیاری از شرکتهای بزرگ فناوری به دنبال تسلط بر بازار هوش مصنوعی مولد هستند، Safe Superintelligence با رویکرد متفاوتی وارد میدان شده است. این شرکت تأکید دارد که هیچ حواسپرتی ناشی از مدیریت یا چرخههای محصول نخواهد داشت و تمرکز اصلی آن بر ایمنی و پیشرفت مداوم است. سوتسکیور معتقد است که این رویکرد به شرکت اجازه میدهد تا بدون فشارهای تجاری کوتاهمدت به اهداف بلندمدت خود دست یابد.
ایلیا سوتسکیور و همکارانش در Safe Superintelligence بر این باورند که آینده هوش مصنوعی باید با دقت و توجه بیشتری به مسائل ایمنی توسعه یابد. آنها قصد دارند با ایجاد یک سیستم هوش مصنوعی قدرتمند و ایمن، استانداردهای جدیدی را در این حوزه تعیین کنند و از مخاطرات احتمالی جلوگیری کنند.
شرکت جدید Safe Superintelligence با تمرکز بر ایمنی و پیشرفت در زمینه هوش مصنوعی تأسیس شده است. ایلیا سوتسکیور، با تجربهی فراوان در این حوزه، به همراه تیمی از متخصصان برتر، امیدوار است تا با این رویکرد متفاوت، تأثیرات مثبتی بر آینده هوش مصنوعی بگذارد. در حالی که بسیاری از شرکتهای فناوری به دنبال تسلط بر بازار هستند، Safe Superintelligence به دنبال ایجاد محیطی ایمن و قابل اعتماد برای هوش مصنوعی است. با توجه به این که ایمنی و پیشرفت از فشارهای تجاری کوتاهمدت محافظت شدهاند، این شرکت امیدوار است که بتواند به آرامی و با دقت به اهداف بلندمدت خود دست یابد.
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.