گوگل برای در امان ماندن از خطرات احتمالی هوش مصنوعی 5 قانون کلی دارد
کریس اولاه از بخش Google Research در پستی امروز به 5 مورد مهم در خصوص حفاظت انسان ها برابر خطرات احتمالی هوش مصنوعی در آینده اشاره کرد، در واقع هدف وی ارائه راهکارهایی برای توسعه ...
کریس اولاه از بخش Google Research در پستی امروز به 5 مورد مهم در خصوص حفاظت انسان ها برابر خطرات احتمالی هوش مصنوعی در آینده اشاره کرد، در واقع هدف وی ارائه راهکارهایی برای توسعه هوش مصنوعی امن و در عین حال هوشمندتر است.
این پست همراه با مقاله تحقیقاتی گوگل که به همراه چند سازمان دیگر انجام شده بود منتشر شد تا نشان دهد که نگرانی ها پیرامون آینده هوش مصنوعی تا چه حد می تواند جدی باشد و به چه طریقی می توان آن را خنثی کرد.
این 5 راهکار به عبارت زیر است:
- پرهیز از اثرات جانبی منفی: هوش مصنوعی حین تکمیل لیست وظایف خود نباید به محیط اطراف ضربه وارد کند.
- پرهیز از عملکرد نادرست: هوش مصنوعی باید به طور کامل و شایسته وظایف خود را انجام دهد و از محیط استفاده نامناسب نکند (مثل ربات تمیز کننده ای که برای مثال یک تکه کاغذ را روی خرده های آشغال کف زمین بگذارد و تصور کند که وظیفه اش را انجام داده).
- نظارت مقیاس پذیر: لازم نیست که به هوش مصنوعی مرتبا فیدبک یا ورودی داده شود تا موثر باشد.
- یادگیری امن: در حین یادگیری، هوش مصنوعی نباید به خود یا محیط اطراف ضربه وارد کند.
- تفکر درست پس از تغییر: یک هوش مصنوعی باید بتواند پس از تغییر موقعیت خود، در محیط جدید هم عملکرد درستی داشته باشد.
در هر صورت، گوگل هیچگاه پیرامون فعالیت هایش در زمینه هوش مصنوعی عقب نشینی نداشته و حتی Google DeepMind نیز قویا در حال رشد است. اوایل همین امسال بود که ربات DeepMind موفق شد تا در بازی Go، قهرمان جهانی را شکست دهد.
دیدگاهها و نظرات خود را بنویسید
برای گفتگو با کاربران ثبت نام کنید یا وارد حساب کاربری خود شوید.
این قانون گذاری گوگل منو یاد اون قوانین توی فیلم "i robot"میندازه:-))