ساتیا نادلا و قوانین اختصاصی اش برای حفاظت از بشر در برابر هوش مصنوعی

ساتیا نادلا و قوانین اختصاصی اش برای حفاظت از بشر در برابر هوش مصنوعی

حتما بارها و بارها در گوشه و کنار شنیده اید که شرکت ها و افراد صاحب نام چطور با ترس و وحشت از قدرت گرفتن ربات ها در برابر انسان سخن می گویند و روزی را به تصویر می کشند که در آن انسان تحت تسلط دست سازه هایش قرار می گیرد. در مقابل این گروه هم همواره افرادی وجود دارند که مدعی می شوند تمام تلاش خود را برای حفاظت از بشر در مقابل هوش مصنوعی به خدمت می گیرند.

ساتیا نادلا مدیرعامل مایکروسافت هم یکی از این افراد است که اخیرا قوانین و مقررات اختصاصی خود را برای تحقق این مهم مطرح نموده و در ادامه توجه شما را به خلاصه ای از مباحث مطرح شده از زبان وی جلب می کنیم.

آنطور که در نشریه Slate به نقل از نادلا آمده:

1- «هوش مصنوعی باید برای کمک به بشریت طراحی گردد»: که البته این اصل مورد توافق خیلی هاست.

2- «هوش مصنوعی باید شفاف باشد»: این ایده در نوع خود بسیار خوب به نظر می آید هرچند که نادلا در گفته هایش اشاره کرده بود «فناوری در مورد انسان چیزهایی خواهد دانست، اما انسان ها باید در مورد ماشین ها یاد بگیرند» و این جمله را به نوعی می توان ناقض عبارت نخست دانست.

3- «هوش مصنوعی باید بیشترین بهره وری را با خود به ارمغان بیاورد و در عین حال نباید کرامت انسانی را جریحه دار کند». او اضافه کرد که این یعنی: «صنعت فناوری نباید ارزش های آینده را دیکته کند». اما اتفاقی که نادلا نسبت به وقوعش هشدار داده، به شیوه ای دیگر قبلا رخ داده؛ این روزها همه در تلاشند تا کد نویسی یاد بگیرند.

4- «هوش مصنوعی باید برای حریم خصوصی هوشمند طراحی گردد»: حریم خصوصی «هوشمند» چیست؟ آیا منظور این است که مثلا تنظیمات حریم خصوصی فیسبوک آنقدر پیچیده هستند که تنها  خوره های تکنولوژی می دانند چطور باید چشم های کنجکاو را از عکس های خود دور نگه دارند؟

5- «هوش مصنوعی باید مسئولیت الگوریتم داشته باشد تا انسان بتواند خسارات ناخواسته ای که ممکن است از طریق آن به بار می آید را از میان ببرد». باید دید نظر او در مورد دکمه «غیرفعالسازی هوش مصنوعی» گوگل چیست؟ (منظور در واقع سندی است که شرکت DeepMind، از کمپانی های وابسته به گوگل که در زمینه هوش مصنوعی فعالیت دارد، درخصوص راهکارهای مناسب برای پیشگیری از امور ناخواسته توسط ربات ها منتشر کرد).

6- «هوش مصنوعی باید از هر نوع تعصب به دور باشد تا تحقیقات در این زمینه به کامل ترین شیوه صورت بگیرد و از  اکتشافات غلط برای ایجاد تمایز در آن استفاده نشود». این گزینه را بی شک می توان عقلانی ترین و پرمعناترین جمله مطرح شده از سوی نادلا قلمداد کرد. اگر خاطرتان باشد چندی پیش در آمریکا هوش مصنوعی به خدمت گرفته شده توسط یکی از نهادهای قضایی این کشور اینطور استدلال کرده بود که احتمال ارتکاب به جرم توسط افراد سیاه پوست به مراتب بیشتر است.

نادلا دست آخر صحبت هایش را با گفتن این عبارت ساده که «سعی کنید به مردم آسیب نزنید» به پایان برد و به بهترین شیوه ممکن جان کلام را به مخاطبانش انتقال داد.

نظرات ۰
وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

Digiato

رمزتان را گم کرده‌اید؟

Digiato