کامپیوترها چگونه حل مسائل را برای بشر ساده تر کرده اند؟

تصور کنید که دهه 1950 میلادی است و یکی از نخستین کامپیوترهای دنیا را در اختیار دارید. شرکتی به شما مراجعه می کند و اینطور می گوید: ما یک متن 10 میلیون کلمه ای داریم و می خواهیم آن را از آن زبان فرانسوی به انگلیسی ترجمه کنیم. می توانیم برای این کار مترجم استخدام کنیم، اما آیا راه دیگری وجود دارد که بتوانید این کار را به صورت خودکار برایمان انجام دهید؟

در این دوران (یعنی دهه 1950 میلادی) کامپیوترها همچنان پدیده ای تازه محسوب می شوند و هیچکسی ترجمه خودکار را با استفاده از آنها انجام نداده است اما شما تصمیم می گیرید که تلاشتان را برای انجام این کار بکنید.

برای این منظور برنامه ای می نویسید که هر جمله را بررسی کرده و سعی می کند که ساختار گرامری اش را درک کند. این برنامه به دنبال افعال می گردد، اسامی مختلفی را جستجو می کند که با آن فعل ها قابل استفاده هستند و صفات را تشخیص می دهد و در نهایت ساختار جمله را از فرانسه به انگلیسی بر می گرداند و با استفاده از یک دیکشنری فرانسه به انگلیسی کار ترجمه تک تک کلمات را انجام می دهد.

طی چندین دهه اخیر، اغلب سیستم های ترجمه کامپیوتری از این شیوه بهره می گرفتند و لیستی طولانی از قواعد را مورد استفاده قرار می دادند که ساختارهای زبانی را توضیح می دادند.

اما در اواخر دهه 1980 میلادی، تیمی متشکل از کارشناسان مرکز تحقیقاتی توماس واتسون متعلق به IBM که در یورک تاون هیت نیویورک قرار داشت تصمیم گرفتند که از رویکردی متفاوت برای این منظور بهره بگیرند.

در ادامه این مطلب با دیجیاتو همراه باشید تا بیشتر در مورد سیر تحول صنعت ترجمه خودکار با استفاده از کامپیوتر بدانید.

آنها تقریبا هر آنچه که ما در مورد زبان می دانیم، از قواعد مربوط به زمان افعال گرفته تا کاربرد اسامی را استخراج کرده و نوعی الگوی آماری را با استفاده از آن ایجاد کردند.

تیم یاد شده برای این منظور شیوه ای هوشمندانه را به خدمت گرفتند و نسخه خطی مناقشات پارلمان بریتانیا تحت عنوان هانسارد را گرفتند که هم به انگلیسی موجود بود و هم فرانسوی.

در مرحله بعدی، این تیم با استفاده از یک کامپیوتر نسخه های انگلیسی و فرانسوی این سند را با هم مطابقت داده و روابط میان آنها را کشف کردند.

برای نمونه این کامپیوتر دریافت که معادل انگلیسی جملات حاوی عبارت فرانسوی bonjour دربرگیرنده کلمه Hello است که تقریبا در همان موقعیت مکانی قرار گرفته.

آن کامپیوتر چیزی در مورد کلمات یاد شده نمی دانست و کارش را بدون در اختیار داشتن دیکشنری یا قواعد گرامری آغاز کرد. در واقع اصلا به این دو کتاب نیازی نداشت و در عوض صرفا به ارتباط میان دو کلمه یاد شده پی برد.

این برنامه با انجام چنین مقایسه هایی نوعی الگوی آماری را در مورد ارتباط پیدا کردن جملات فرانسوی با انگلیسی ایجاد کرد که در مورد کلمات و عبارات فرانسوی و انگلیسی هم صادق بود.

اگر بخواهیم به صورت دقیق تر بگوییم این کامپیوتر برای تخمین زدن احتمال وجود یک کلمه یا عبارت انگلیسی در جمله با در نظر داشتن کلمه یا عبارت موجود در ترجمه فرانسوی معادل آن از هانسارد استفاده کرد.

کامپیوتر همچنین از هانسارد برای تخمین زدن احتمال چینش کلمات و عبارات در داخل جملات ترجمه شده استفاده کرد و با بهره گیری از این الگوی آماری، موفق شد که یک جمله  فرانسوی جدید را دریافت کرده (جمله ای که تا آن زمان ندیده بود) و سپس محتمل ترین معادل انگلیسی برای آن را ارائه نماید که در واقع همان ترجمه ارائه شده از سوی برنامه می شد.

این ایده زمانی که برای نخستین بار مطرح گردید از نظر بسیاری مضحک و عجیب به نظر آمد و در واقع هرآنچه در مورد زبان می دانستیم را باطل کرد.

در این الگو خبری از مفهوم فاعل، مسند یا مفعول نیست و در واقع اصلا هیچکدام از بخش های ساختار زبانی که پیشتر در ذهنمان شکل گرفته بود به چشم نمی خورد. نکته دیگر اینکه این مدل هیچ تلاشی برای درک معنای جملات نمی کند و با این حوزه کاری ندارد.

علیرغم همه این ضعف ها، باید بگوییم تیم پژوهشگران IBM دریافتند که این رویکرد به مراتب بهتر از سیستم های مبتنی بر مفاهیم زبانی پیچیده کار می کند. در واقع سیستم ارائه شده توسط این تیم به قدری موفق ظاهر شد که بهترین سیستم های مدرن دنیا برای ترجمه زبان (نظیر گوگل ترنسلیت) هم برپایه ایده ای مشابه به آن طراحی شدند.

اما الگوهای آماری صرفا در ترجمه های کامپیوتری به کار نمی آیند. به بیان دیگر مشکلاتی به مراتب بیشتر از این، در رابطه با یک زبان وجود دارد که این الگوها می توانند در حل شان سودمند واقع شوند و حتی بهتر از راهکارهای سنتی و متداول زبانی عمل کنند.

برای نمونه بهترین سیستم های کامپیوتری مدرن برای تشخیص کلام بر پایه مدل های آماری زبان انسان طراحی شده اند و موتورهای جستجوی آنلاین نیز از همین الگوها برای درک درخواست های جستجو و بهترین پاسخ ها استفاده می کنند.

البته بسیاری از کارشناسان زبان که به شیوه های سنتی آن را فرا گرفته اند، نسبت به سودمندی این قبیل الگوها تردید دارند. برای نمونه چامسکی زبان شناس سرشناس آمریکایی در این رابطه می گوید:

کارهای زیادی برای تحلیل آماری دقیق زبان صورت می گیرد و در این قبیل فعالیت ها توجه ای به ساختار حقیقی زبان نمی شود و در نتیجه تا آنجا که من اطلاع دارم نتایج آنها نیز با موفقیت چندانی روبرو نیست. در واقع این روش ها با استفاده از داده های تحلیل نشده، به موفقیت دست پیدا می کنند که به باور من شیوه ای جدید برای پیروزی است اما به یاد ندارم که در طول تاریخ علم از این شیوه استفاده شده باشد.

چامسکی این رویکرد را با یک الگوی آماری از رفتار حشرات مقایسه می کند. برای نمونه پژوهشگران ممکن است که با در اختیار داشتن تعدادی ویدئو از نحوه حرکت زنبورهای عسل الگویی را پیشنهاد کنند که رفتار بعدی این حشرات را پیش بینی می کند. اما به اعتقاد چامسکی این الگو درک درستی از نحوه فعالیت زنبورها ندارد.

NY_4color-482x289

این نقشه نیویورک را در سال 1896 میلادی نشان می دهد. چهار رنگ به کار گرفته شده در آن نشان می دهد که هر نقشه را می توان به گونه ای با استفاده از چهار رنگ تقسیم بندی کرد که هیچ دو ناحیه مجاور به هم آن رنگ یکسانی نداشته باشند.

مثال هایی مشابه به این نیز در دنیای علم وجود دارد که صرفا هم به زبان شناسی مربوط نمی شود. برای نمونه در علم ریاضیات، حل کردن مسائل با استفاده از راهکارهای تولید شده توسط کامپیوتر بیش از هر زمان دیگری رایج می شود. نخستین نمونه از این شیوه حل مساله در  سال 1976 میلادی رخ داد؛ درست زمانی که کنث اپل و ولفگانگ هاکن قضیه چهار رنگ را ارائه کردند که بر اساس آن هر نقشه را می توان با استفاده از چهار رنگ به شیوه ای رنگ آمیزی کرد که هیچ دو ناحیه مجاور به هم آن رنگ مشابه نداشته باشند.

برهان کامپیوتری ارائه شده توسط این دو نفر جنجال های زیادی را بر پا کرد. در واقع آن برهان بیش از اندازه طولانی بود و به همین دلیل امکان بررسی صحت آن توسط انسان وجود نداشت. برخی ریاضیدانان اینطور اظهار داشتند که نمی توان قضیه مطرح شده را تا زمانی که شواهد کافی دال بر قابل درک بودن آن برای انسان به دست آید، کاملا اثبات شده قلمداد کرد.

این روزها برهان های ارائه شده برای قضایای ریاضی هیچگونه شکل قابل درکی برای انسان ندارند. اما هرچه زمان می گذرد، کامپیوترها نقش به مراتب پررنگ تری را در ارائه برهان و استدلال برای حل قضایای ریاضی ایفا می کنند.

دورون زیلبرگر یکی از ریاضیدانان مطرح جهانی در دانشگاه Rutgers نیوجرسی است که نام کامپیوتر خود (Shalosh B. Ekhad) را به عنوان یکی از مولفان کار تحقیقاتی اش ذکر کرده است.

اما همه ریاضیدانان هم از این قضیه خرسند نیستند. پی دیلاین یکی از ریاضی دانان مشهور جهان همسوی تردیدهای مطرح شده از سوی چامسکی اینطور اظهار می دارد: من اعتقادی به برهان ها و روش های حل مساله ارائه شده توسط کامپیوترها ندارم. شاید آدم خودخواهی به نظر بیایم اما صرفا برهان هایی را قبول دارم که قادر به درک شان هستم.

شاید در ظاهر، ترجمه آماری و برهان های ارائه شده با کمک کامپیوترها متفاوت از یکدیگر به نظر بیایند اما این دو، یک ویژگی مشترک دارند: در علم ریاضی، یک برهان صرفا استدلالی برای نتیجه نیست بلکه نوعی توضیح در مورد علت درست بودن یک نتیجه است.

بنابراین برهان های ارائه شده با کمک سیستم های کامپیوتری توضیحاتی تولید شده توسط این دستگاه ها هستند که در مورد قضایای ریاضی مطرح می شوند.

به همین نحو، در ترجمه کامپیوتری، مدل های آماری توضیحاتی ضمنی از ترجمه ها هستند. اگر بخواهیم ساده تر بگوییم، این توضیحات به ما می گویند که به عنوان مثال، به جای عبارت bonjour باید از کلمه Hello استفاده کرد چراکه کامپیوتر (با استفاده از سند ذکر شده در ابتدای مطلب) تشخیص داده این واژه قبلا تقریبا به همین شکل ترجمه شده است.

بنابراین می توان هم ترجمه های آماری و هم برهان های ارائه شده با کمک کامپیوتر را به عنوان نمونه هایی از یک پدیده کلی تر در نظر گرفت: ظهور توضیحات ارائه شده با کمک کامپیوتر.

این توضیحات روز به روز اهمیت بیشتری پیدا می کنند و این مساله نتنها در ریاضیات و زبان شناسی بلکه در تمامی حوزه های علم و دانش بشری مشهود است.

اما همانطور که نوابغی نظیر چامسکی و دیلاین (و البته منتقدین دیگر رشته ها) اشاره کرده اند، این توضیحات می توانند راضی کننده نباشند.

این گروه از افراد معتقدند که تکنیک های کامپیوتری مورد بحث توضیحاتی واقعی نیستند و نمی توان به آنها رجوع کرد. ممکن است یک دانشمندان سنتی با نظر چامسکی یا دیلاین موافق باشد و در نتیجه از همان برهان ها و الگوهای سنتی متداول و مرسوم زبانی استفاده نماید.

از طرف دیگر، یک دانشمندان جوان و جویای نام احتمالا اینطور استدلال می کند که برای چه کسی اهمیت دارد، بگذارید از همان شیوه ای استفاده نماییم که موثرتر است و راهکارهای ارائه شده با کمک کامپیوتر را جدی بگیریم.

اما بهتر از هر دوی این رویکردها آن است که هم انتقادات مطرح شده و هم توضیحات ارائه شده با کمک سیستم های کامپیوتری را جدی بگیریم. در این صورت ممکن است که پرسش های زیر را از خود سوال کنیم: توضیحات سنتی چه خصوصیاتی دارند که در توضیحات ارائه شده با کمک کامپیوتر نمی توان آنها را یافت نمود؟ و اینکه چطور می توان توضیحات کامپیوتری را بهبود بخشید تا آن خصوصیات را پیدا کنند؟

برای نمونه آیا ممکن است که با استفاده از الگوهای آماری زبانی، وجود فعل، اسم و دیگر بخش های جمله را به اثبات رساند؟ به بیان دیگر ممکن است که بتوانیم افعال را به عنوان بخش های مبرم آن الگوی آماری رویت کنیم.

حتی بهتر از این، آیا چنین استنتاجی می تواند درک ما نسبت به گروه های زبانی موجود را تعمیق نماید؟ برای مثال تصور کنید که با استفاده از این الگوها، واحدهای پیشتر ناشناخته زبانی را کشف می کنیم یا حتی ممکن است که قواعد گرامری تازه را یاد بگیریم و دانش زبان شناسی خود در سطح مفهومی را گسترده تر نماییم.

تا به امروز چنین دستاوردی لااقل در حوزه زبان شناسی رخ نداده است اما رویدادهایی مشابه ای در دیگر رشته ها اتفاق می افتد. برای نمونه، زیست شناسان هر روز بیشتر از مدل های ژنتیکی و کامپیوتری برای دریافت حقایق سطح بالاتر در مورد این شاخه از علم بهره می گیرند.

دانشمندان با استفاده از کامپیوتر و مقایسه ژنوم کروکودیل ها دریافته اند کروکودیل نیل که پیشتر تصور می شد تنها یک گونه داشته باشد در اصل دو گونه متفاوت دارد.

و در سال 2010 میلادی نیز گونه جدیدی از انسان به نام Denisovans از طریق تحلیل ژنوم ذره ای که متعلق به استخوان انگشت آن بود کشف گردید.

استدلال جالب دیگری نیز از سوی هاد لیپسون از دانشگاه کلمبیا مطرح گردید. لیپسون و همکارانش الگوریتم هایی را توسعه دادند که پس از دریافت داده های خام در مورد مشاهدات صورت گرفته از یک سیستم مکانیکی به صورت عقب گرد به تحلیل آن اطلاعات می پردازد تا «قوانین طبیعی» مربوط به آن داده ها را کشف کند. به طور مشخص این الگوریتم ها قادرند قوانین طبیعت و کمیت های مربوط به آن سیستم را تشخیص دهند.

فرایند مذکور قادر است که اطلاعات توجهی از یک سیستم را به لحاظ مفهومی در اختیار این دانشمندان قرار دهد. تا به امروز، لیپسون  با استفاده از این الگوریتم ها موفق شده که تنها سیستم های ساده را تحلیل کند (هرچند که برای این منظور داده های خام پیچیده ای را مورد استفاده قرار داده است).

در واقع دانشمندان از یک شرایط بسیار پیچیده آغاز می کنند و سپس با استفاده از یک کامپیوتر توضیحات موجود را ساده می نمایند تا به درکی در سطح بالاتر دست پیدا کنند.

در هر صورت توضیحات ارائه شده از طریق کامپیوتر به قدری سودمند هستند که احتمالا هیچگاه کنار گذاشته نمی شوند. از طرفی ما نیز می توانیم انتظار داشته باشیم که توسعه چنین تکنیک هایی به جنبه ای بسیار مهم از پژوهش علمی  ظرف دهه های آتی بدل گردد.

مطالب مرتبط

۱۰ سال با گوگل؛ مروری بر دهه‌ای که یکی از ۵ کمپانی بزرگ جهان پشت سر گذاشت

گوگل، کمپانی محبوب و منفور همه دهه‌ای پر فراز و نشیب پشت سر گذاشت و موضوع صرفاً درباره تثبیت بیشتر جایگاهش در میان کمپانی‌های پیشرو تکنولوژی نبود. در سال ۲۰۰۹ این کمپانی در جمع ۲۰ کمپانی بزرگ جهان بود که به خاطر سال‌ها فعالیت در زمینه یوتوب، کروم و چیزهایی از این دست بود. اما... ادامه مطلب

هوش مصنوعی گوگل در تشخیص سرطان سینه رادیولوژیست ها را شکست داد

طبق یک مقاله تحقیقاتی که روز گذشته در نشریه نیچر منتشر شد گوگل برای کمک به پزشکان در تشخیص ساده تر سرطان سینه مشغول توسعه هوش مصنوعی جدیدی است. این مدل که عکس های گرفته شده با پرتو اکس (موسوم به ماموگرافی) را اسکن می کند، تشخیص های منفی کاذب را تا ۹.۴ درصد کاهش... ادامه مطلب

آمار جستجوی گوگل در سال 2019 منتشر شد؛ سال ابرقهرمانان

با نزدیک شدن به پایان سال 2019 میلادی، گوگل مروری بر ترندهای جستجو بین کاربران داشته و نشان داده که ابرقهرمانان نقش پررنگی در جستجوی گوگل ایفا کرده اند.آمار جستجوی گوگل هر سال بر اساس اطلاعات گوگل ترندز جمع آوری می شود. طبق این آمار، سال 2019 سال ابرقهرمانان بوده؛ چه قهرمانان دنیای مارول و... ادامه مطلب

آمازون سرویس آزمایشی رایانش کوانتومی خود را معرفی کرد

آمازون نسخه آزمایشی سرویس رایانش کوانتومی خود به نام آمازون براکت (Amazon Braket) را معرفی کرد. این کمپانی امیدوار است با معرفی این سرویس، حوزه نوپای رایانش کوانتومی را به سرویسی قابل دسترس از طریق اینترنت تبدیل کند.آمازون با انتشار پستی در وبلاگ خود اعلام می کند که آمازون براکت تماماً توسط سرویس های تحت... ادامه مطلب

گوگل از برنامه های خود برای ساخت ربات های جمع آوری زباله گفت

تیم اکس آلفابت که در واقع روی پروژه های جاه طلبانه این شرکت از جمله لون کار میکند، ماه هاست که از رباتها برای انجام فعالیت های مختلفی از جمله بازیافت زباله ها در دفاتر خود استفاده می کند. این ربات ها که روی چرخ های کوچکی سوار شده اند میتوانند خود را به مکان... ادامه مطلب

لیست سریع ترین ابرکامپیوترهای جهان؛ سریع تر از همیشه با لینوکس

در آخرین رده بندی 500 ابرکامپیوتر برتر دنیا، میانگین سرعت ابرکامپیوترهای مبتنی بر لینوکس به رقم باورنکردنی 1.14 پتافلاپس رسیده است. سریع ترین ابرکامپیوتر لیست یعنی «سامیت» (Summit)، با توان پردازشی 148.6 پتافلاپس به جایگاه نخست تکیه زده است.سامیت در لیست 500 ابرکامپیوتر برتر ماه ژوئن نیز لقب سریع ترین ابرکامپیوتر دنیا را به خود... ادامه مطلب

نظرات ۹

وارد شوید

برای گفتگو با کاربران، وارد حساب کاربری خود شوید.

ورود
x

رمزتان را گم کرده‌اید؟