ابراز نگرانی متخصصین و دانشگاهیان از روند توسعه هوش مصنوعی با امضا نامه ای سرگشاده

ابراز نگرانی متخصصین و دانشگاهیان از روند توسعه هوش مصنوعی با امضا نامه ای سرگشاده

ابراز نگرانی متخصصین و دانشگاهیان از روند توسعه هوش مصنوعی با امضا نامه ای سرگشاده

هنوز چندین دهه با توسعه ی ابر کامپیوترهای هوشمندی که بتوانند نسل بشر را به بردگی بکشانند فاصله داریم، اما در طی سال های اخیر بسیار از دانشمندان، فلاسفه و افراد سرشناس در این رابطه ابراز نگرانی کرده و نسبت به وقوعش هشدار داده اند.

اکنون نیز یکبار دیگر دانشگاهیان و متخصصین (خصوصاً افراد فعال در حوزه هوش مصنوعی) از سراسر جهان با امضا پیش نویس نامه ای در همین رابطه که توسط "انستیتو زندگی آینده" تهیه گشته یادآوری کرده اند در توسعه و پیشرفت این شاخه از تکنولوژی و علم باید دقت و ایمنی را به شدت مورد توجه قرار داد تا دستاوردهای حاصله به یکباره از کنترل انسان خارج نشوند.

در ادامه با دیجیاتو همراه باشید.

در بین امضا کنندگان نامه ی پیش تر اشاره شده اسامی همچون موسس کمپانی Deep Mind (شرکتی انگلیسی و فعال در زمینه ی هوش مصنوعی که در ژانویه ۲۰۱۴ به تملک گوگل درآمد)، پروفسورهای دانشگاه MIT و متخصصین بسیار زبده ای همانند افرادی که در توسعه ی ابر کامپیوتر واتسون کمپانی IBM همکاری داشته اند به چشم می خورد.

در بخشی از نامه مذکور آمده است از آنجایی که هر آنچه تا به اکنون توسط تمدن بشری ارائه گشته در اصل حاصل نبوغ و خلاقیت انسان بوده، لذا توصیه می شود در زمینه ی توسعه سیستم های هوش مصنوعی بر روی مواردی تمرکز گردد که برای بشر کاربردی بوده و از سلطه ی کنترل او خارج نباشند. موارد حاصل از این تکنولوژی باید درخواست های انسان را به سرانجام برسانند. به پیوست این نامه اسنادی مرتبط به یک تحقیق که خط مشی معینی برای توسعه هوش مصنوعی مشخص کرده نیز پیوست گشته است.

پیش نویس نامه ی یاد شده اندکی بعد از این منتشر می شود که برخی از متخصصین در شاخه های مختلف به صورت جداگانه هشدارهایی را در رابطه با خطرات هوش مصنوعی مطرح کرده بودند. مثلا این نگرانی وجود دارد که اتومبیل های خودران در شرایط پیش بینی نشده و زمانی که احتمال تصادف وجود دارد برای جلوگیری از این امر جان سرنشینان خود را به جان دوچرخه سواری که در کنار جاده در حرکت است ترجیح دهند و یا بالعکس.

دو سال قبل نیز یکی از نمایندگان سازمان ملل در رابطه با تست و توسعه سلاح هایی که می توانند به صورت خودکار و بدون دخالت انسان اهداف دشمن را شناسایی و به آنها حمله نمایند هشدار جدی داده بود.

پیش از این ایلان ماسک مدیر عامل شناخته شده ی کمپانی فضایی اسپیس اکس و شرکت خودروسازی تسلا و همینطور فیزیکدان بسیار معروف، استفان هاوکنیگ، نگرانی های خود را در همین رابطه مطرح کرده بودند. ماسک گفته بود: "چنین تکنولوژی می تواند بازار های مالی ما را تصاحب نموده، ابداعاتی برتر از ابداعات انسانی صورت دهد، رهبرانمان را تحت سلطه خود بگیرد و در نهایت اسلحه هایی بسازد که از قدرت درک ما خارج هستند."

هاوکینگ نیز در مصاحبه ای با  The Independet اشاره کرده بود که اثرات کوتاه مدت هوش مصنوعی وابسته به این است که چه کسانی کنترل و توسعه آن را عهده دار باشند ولی اثرات بلند مدتش به این موضوع باز می گردد که آیا ما توانسته باشیم کنترل خودمان را بر این تکنولوژی حفظ نماییم و یا خیر.

ماسک در ماه آگوست در توییتی می آورد: "در رابطه با هوش مصنوعی باید دقت مضاعفی داشته باشیم زیرا این تکنولوژی می تواند از بمب اتم نیز خطرناک تر گردد."

وی در اکتبر هم اظهار کرده بود باید نهادی بین المللی پدید بیاید و بر فعالیت هایی که در رابطه با هوش مصنوعی صورت می پذیرد نظارت دقیق داشته باشد تا این مسئله از مسیر خود منحرف نشده و به راهی نامعقول نرود.

انستیتوی زندگی آینده که در اصل موسسه ای تحقیقاتی و بر اساس فعالیت نیروهای دواطلبانه است هدف اولیه اش ارائه راهکار برای موراد و تکنولوژی های همانند هوش مصنوعی بوده که می توانند آینده و بقای نسل بشر را به خطر بیاندازند. این نهاد توسط تعدادی از متخصصین شناخته شده ی حوزه کامپیوتر و همینطور ریاضی دانان از جمله Jaan Tallinn بنیانگذار کمپانی اسکایپ (اکنون در تملک مایکروسافت قرار دارد) و Max Tegmark، یکی از پروفسورهای شناخته شده MIT تاسیس گشته است.

نظرات ۳۲

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود

Digiato

رمزتان را گم کرده‌اید؟ ورود با گوگل

Digiato

ورود با گوگل