ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

آموزش نصب هوش مصنوعی OpenAI
هوش مصنوعی

چگونه مدل متن‌باز OpenAI را روی کامپیوتر و لپ‌تاپ اجرا کنیم؟ آموزش تصویری و مرحله‌ای

برای اجرای این مدل به یک کارت گرافیک با حداقل 16 گیگابایت VRAM اختصاصی یا حداقل ۲۴ گیگابایت RAM نیاز دارید.

جواد تاجی
نوشته شده توسط جواد تاجی | ۱۷ مرداد ۱۴۰۴ | ۰۹:۳۰

OpenAI به‌تازگی دو مدل زبانی متن‌باز با نام gpt-oss را منتشر کرد که کاربران می‌توانند آنها را روی سیستم خود اجرا کنند. در ادامه آموزش نصب هوش مصنوعی متن‌باز OpenAI روی سه سیستم‌عامل ویندوز، لینوکس و macOS را به‌صورت تصویری توضیح خواهیم داد.

نسخه سبک‌تر این مدل‌ها یعنی gpt-oss-20b با 21 میلیارد پارامتر، تنها به حدود 16 گیگابایت حافظه نیاز دارد. در مقابل، مدل سنگین‌تر با نام gpt-oss-120p شامل 117 میلیارد پارامتر می‌شود و اجرای آن به 80 گیگابایت حافظه نیاز دارد. برای مقایسه، یک مدل پیشرفته مانند DeepSeek R1 حدود 671 میلیارد پارامتر دارد و برای اجرا به چیزی در حدود 875 گیگابایت حافظه نیاز دارد.

بنابراین اگر سیستم شما یک سرور قدرتمند مخصوص هوش مصنوعی نباشد، به‌احتمال زیاد نمی‌توانید مدل gpt-oss-120b را اجرا کنید. اما بسیاری از کاربران خانگی امکان استفاده از مدل gpt-oss-20b را دارند. برای این کار، سیستم شما باید یکی از این دو شرط زیر را داشته باشد:

  • یک کارت گرافیک با حداقل 16 گیگابایت VRAM اختصاصی
  • یا حداقل ۲۴ گیگابایت RAM کلی (که از این مقدار، حدود ۸ گیگابایت برای سیستم عامل و برنامه‌ها در نظر گرفته می‌شود)
آموزش نصب مدل متن باز OpenAI

همچنین عملکرد این مدل به‌شدت وابسته به پهنای باند حافظه است. بنابراین کارت‌های گرافیک دارای حافظه GDDR7 یا GDDR6X با پهنای باند 1000 گیگابایت‌برثانیه یا بیشتر، بسیار بهتر از سیستم‌های معمولی با رم DDR4 یا DDR5 (با پهنای باند 20 تا 100 گیگابایت‌بر‌ثانیه) عمل می‌کنند.

آموزش نصب هوش مصنوعی OpenAI روی کامپیوتر و لپ‌تاپ

در ادامه، مراحل اجرای این مدل را به‌صورت رایگان روی سیستم‌عامل‌های ویندوز، لینوکس و macOS توضیح می‌دهیم. برای این کار از Ollama استفاده خواهیم کرد؛ اپلیکیشن رایگانی که نصب و اجرای این مدل زبانی را بسیار ساده می‌کند.

اجرای مدل gpt-oss-20b در ویندوز

اجرای این مدل زبانی جدید در ویندوز بسیار ساده است. برای شروع، ابتدا باید برنامه Ollama را برای ویندوز دانلود و نصب کنید.

پس از اجرای Ollama، در پنجره اصلی یک فیلد با عنوان Send a message خواهید دید. در پایین سمت راست نیز یک منوی کشویی قرار دارد که مدل‌های قابل استفاده را نمایش می‌دهد. به‌صورت پیش‌فرض، مدل gpt-oss:20b انتخاب شده است. می‌توانید مدل دیگری را انتخاب کنید، اما فعلاً با همین مدل کار را ادامه می‌دهیم.

در فیلد پیام، هر دستوری که دوست دارید را می‌توانید وارد کنید. پس از وارد کردن پیام، برنامه شروع به دانلود فایل مدل کرده که حجمی برابر با 12.4 گیگابایت دارد. سرعت دانلود ممکن است پایین باشد، پس کمی صبور باشید.

پس از اتمام دانلود، می‌توانید هر دستوری که مایل هستید را وارد کرده و با کلیک روی دکمه فلش، پاسخ آن را دریافت کنید.

همچنین اگر ترجیح می‌دهید بدون رابط گرافیکی (GUI) و از طریق خط فرمان کار کنید، Ollama این امکان را نیز فراهم کرده است. در واقع، اجرای برنامه از طریق Command Prompt مزایایی هم دارد؛ مثل فعال‌سازی حالت verbose که آمار عملکرد مدل مانند مدت زمان پاسخ‌دهی را نمایش می‌دهد.

برای اجرای Ollama از طریق CMD، ابتدا باید این دستور را وارد کنید:

ollama run gpt-oss

اگر این اولین بار است که این مدل را اجرا می‌کنید، Ollama به‌طور خودکار مدل را از اینترنت دانلود خواهد کرد. پس از دانلود و نمایش اعلان آماده به کار، این دستور را وارد کنید:

/set verbose

در نهایت، درخواست خود را تایپ کرده و Enter بزنید تا مدل پاسخ دهد.

اجرای مدل gpt-oss-20b در لینوکس

برای اینکه مدل OpenAI را روی لینوکس اجرا کنید، ابتدا باید یک پنجره ترمینال باز کنید. سپس دستور زیر را در ترمینال وارد کنید:

curl -fsSL https://ollama.com/install.sh | sh

با این کار، برنامه Ollama به‌صورت خودکار دانلود و نصب خواهد شد. بسته به سرعت اینترنت شما، ممکن است فرایند دانلود چند دقیقه طول بکشد.

پس از اتمام نصب، برای اجرای مدل gpt-oss:20b این دستور را وارد کنید:

ollama run gpt-oss

در اولین اجرا، حدود ۱۳ گیگابایت داده باید دانلود شود تا مدل آماده به کار شود. پس از آن، می‌توانید درخواست خود را وارد کرده و پاسخ مدل را دریافت کنید.

با دستور زیر هم می‌توانید حالت verbose را فعال کنید تا آمارهایی مانند مدت زمان پاسخ‌دهی مدل را مشاهده کنید:

/set verbose

سپس می‌توانید پیام یا دستور خود را تایپ کرده و اجرا کنید.

اجرای مدل gpt-oss-20b در مک

اگر از مک‌بوک یا مک دسکتاپی با پردازنده M1 یا بالاتر استفاده می‌کنید، اجرای مدل gpt-oss-20b به‌سادگی نسخه ویندوز خواهد بود. کافی است نسخه مخصوص macOS از برنامه Ollama را دانلود و نصب کنید.

پس از نصب، برنامه را اجرا کرده و مطمئن شوید که مدل انتخاب‌شده gpt-oss:20b باشد.

سپس در فیلد پیام، درخواست خود را وارد کرده و روی دکمه فلش رو به بالا کلیک کنید تا پاسخ مدل را دریافت کنید. به همین سادگی در مک خود توانسته‌اید از هوش مصنوعی OpenAI استفاده کنید.


چه انتظاری می‌توان از عملکرد gpt-oss-20b داشت؟

رسانه The Register برای آزمایش عملکرد این مدل روی لپ‌تاپ‌ها، چند دستگاه مختلف را انتخاب کرده است:

  • لپ‌تاپ Lenovo ThinkPad X1 Carbon با پردازنده Core Ultra 7-165U و رم ۶۴ گیگابایتی LPDDR5x-6400
  • مک‌بوک پرو با چیپ M1 Max و رم ۳۲ گیگابایتی LPDDR5x-6400
  • کامپیوتر دسکتاپ خانگی با کارت گرافیک Nvidia RTX 6000 Ada، پردازنده AMD Ryzen 9 5900X و رم ۱۲۸ گیگابایتی DDR4-3200

به هر سه دستگاه نیز دستور نوشتن یک نامه عاشقانه و سوال «اولین رئیس‌جمهور آمریکا چه کسی بود؟» ارائه شده است.

این رسانه می‌گوید که روی لپ‌تاپ تینک‌پد X1، عملکرد بسیار ضعیف بوده، چون Ollama فعلاً نمی‌تواند از گرافیک مجتمع یا واحد پردازش عصبی (NPU) این دستگاه استفاده کند و تمام بار پردازش روی CPU افتاد. به‌همین‌دلیل تولید نامه عاشقانه ۱۰ دقیقه و ۱۳ ثانیه طول کشیده است!

پاسخ به سوال ساده «اولین رئیس‌جمهور آمریکا چه کسی بود؟» نیز ۵۱ ثانیه به کاربر ارائه شده است.

مک‌بوک پرو و تینک‌پد رم یکسانی دارند، اما این گزارش می‌گوید که دستگاه اپل با اختلاف بسیار بهتر عمل کرده است. مک بوک نامه را در 26 ثانیه نوشته و تنها در ۳ ثانیه به سوال پاسخ داده است.

اما طبق انتظار، سیستم دسکتاپ با کارت گرافیک قدرتمند RTX 6000 بهترین عملکرد را داشته است. این سیستم نامه را در ۶ ثانیه و پاسخ سوال را در کمتر از نیم ثانیه تولید کرده است.

جواد تاجی

دوران حرفه‌ای من توی دنیای فناوری تقریبا به ۱۰ سال قبل برمی‌گرده؛ مسیری که با سخت‌افزار شروع شد، با نرم‌افزار ادامه پیدا کرد و حالا با خبرنگاری حوزه فناوری توی دیجیاتو داره ادامه پیدا می‌کنه. من جوادم و بیشتر از سه دهه از عمرم می‌گذره و علاوه بر دنیای فناوری عاشق فیلم‌و‌سینما، موسیقی کلاسیک‌راک و رئال مادریدم.

دیدگاه‌ها و نظرات خود را بنویسید
مطالب پیشنهادی