ثبت بازخورد

لطفا میزان رضایت خود را از دیجیاتو انتخاب کنید.

واقعا راضی‌ام
اصلا راضی نیستم
چطور میتوانیم تجربه بهتری برای شما بسازیم؟

نظر شما با موفقیت ثبت شد.

از اینکه ما را در توسعه بهتر و هدفمند‌تر دیجیاتو همراهی می‌کنید
از شما سپاسگزاریم.

GPT-4o
هوش مصنوعی

مدل هوش مصنوعی GPT-4o معرفی شد؛ سریع‌تر، تواناتر و رایگان [تماشا کنید]

GPT-4o به‌عنوان مدل هوش مصنوعی پرچمدار جدید OpenAI از راه رسید.

ایمان صاحبی
نوشته شده توسط ایمان صاحبی | ۲۴ اردیبهشت ۱۴۰۳ | ۲۰:۳۸

مدل هوش مصنوعی GPT-4o برپایه مدل پرچمدار قبلی OpenAI ساخته شده اما از جهات مختلفی بهبود پیدا کرده است و می‌تواند برقراری ارتباط با این فناوری را ساده‌تر و پویاتر کند.

مدل هوش مصنوعی GPT-4o در اختیار تمام کاربران شامل کاربران سرویس رایگان و پولی این شرکت قرار می‌گیرد. قابلیت‌های متن و تصویر این مدل از امروز برای همه کاربران عرضه می‌شود، اما قابلیت جدید Voice Mode آن ابتدا به‌صورت آلفا از هفته‌های آینده برای کاربران ChatGPT Plus در دسترس قرار خواهد گرفت، و بعد به مرحله انتشار گسترده‌تر می‌رود.

«میرا موراتی»، مدیر ارشد فناوری OpenAI در مراسم امشب مدعی شد که GPT-4o پارادایم همکاری و تعامل میان انسان و کامپیوتر را تغییر می‌دهد. او گفت این مدل بهبودیافته قادر به درک متن، صدا و تصویر است، و آن‌ها ماه‌ها برای عرضه این قابلیت‌ها برای تمام کاربران تلاش کرده‌اند.

معرفی قابلیت‌های جدید مدل هوش مصنوعی GPT-4o

موراتی گفت بیش از 100 میلیون نفر به‌صورت مرتب از ChatGPT استفاده می‌کنند و مدل GPT-4o بهینه‌تر از GPT-4 شده است. در نتیجه، این شرکت GPTها یا همان چت‌بات‌های سفارشی را هم به نسخه رایگان ChatGPT می‌آورد.

API مدل هوش مصنوعی GPT-4o دو برابر سریع‌تر و 50 درصد ارزان‌تر شده و محدودیت آن 5 برابر نسبت به GPT-4 توربو کاهش پیدا کرده است.

با GPT-4o می‌توانید از داده‌ها، کدها و ابزارهای بینایی استفاده کنید تا برای مثال بتوانید تصاویر را تحلیل نمایید. یکی از ارتقاهای بزرگ این مدل جدید «گفتار زنده» است. GPT-4o می‌تواند به خود صدا گوش بدهد، به‌جای اینکه ابتدا صدا را به متن تبدیل کند و بعد آن را بفهمد.

OpenAI در یک دمو نشان داد که این مدل چگونه می‌تواند حتی صدای تنفس کاربر را تشخیص بدهد و به او توصیه کند که با چه تکنیک‌هایی می‌تواند وضعیت تنفس خود را بهبود دهد. همچنین در این دمو به‌نظر می‌رسد که هوش مصنوعی بلافاصله پس از اتمام صدای کاربر، می‌تواند به او پاسخ بدهد. به‌علاوه، این Voice Mode جدید می‌تواند با احساسات مختلف با کاربر حرف بزند.

در یک دموی دیگر، کارمند OpenAI با دوربین موبایل خود یک معادله ریاضی را به GPT-4o نشان داد. از هوش مصنوعی خواسته شد تا در حل این معادله به او کمک کند، اما جواب نهایی را ندهد. در پاسخ، این سیستم مراحل حل یک معادله ساده را توضیح داد و تقریباً نقش یک معلم را ایفا کرد.

مدل هوش مصنوعی بهبودیافته OpenAI حالا می‌تواند حس چهره افراد را از طریق دوربین تشخیص دهد. در بخش دیگری از دمو، یک چهره خندان به GPT-4o نشان داده شد و این هوش مصنوعی به کاربر گفت: «نمی‌خواهی بگویی دلیل خوشحالی‌ات چیست؟»

اگرچه GPT-4o برای کاربران رایگان نیز در دسترس قرار می‌گیرد، اما کاربران پولی می‌توانند روزانه پنج برابر بیشتر به این مدل هوش مصنوعی درخواست ارسال کنند. مدل GPT-4o تجربه استفاده از ChatGPT را به‌طرز قابل‌توجهی ارتقا می‌دهد و بسیار سریع‌تر است. این تغییر باعث می‌شود که تجربه مکالمه با این چت‌بات طبیعی‌تر جلوه کند.

با استفاده از GPT-4o می‌توانید منوی یک رستوران خارجی را به هوش مصنوعی نشان دهید و ترجمه آیتم‌های داخل آن را دریافت کنید. این مدل همچنین قادر به ترجمه همزمان است. OpenAI می‌گوید در آینده حتی می‌تواند یک مسابقه ورزشی زنده را به ChatGPT نشان دهید و از هوش مصنوعی بخواهید قواعد آن را به شما توضیح دهد.

OpenAI توضیح می‌دهد که کاربران رایگان ChatGPT با استفاده از GPT-4o می‌توانند به موارد زیر دسترسی پیدا کنند:

  • تجربه هوشی در سطح GPT-4
  • دریافت پاسخ‌های خود مدل و اطلاعات سطح وب
  • تجزیه‌وتحلیل داده‌ها و ساخت نمودار
  • گفت‌وگو درباره تصاویر شما
  • آپلود فایل برای کمک به خلاصه‌سازی، نگارش یا تحلیل
  • کشف و استفاده از جی‌پی‌تی‌ها و جی‌پی‌تی استور
  • بهره‌مندی از تجربه‌ای بهتر با قابلیت حافظه

OpenAI همچنین امشب از نسخه دسکتاپ اپلیکیشن ChatGPT رونمایی و قابلیت‌های صوتی و تصویری جدیدی را برای چت‌بات خود معرفی کرد.

دیدگاه‌ها و نظرات خود را بنویسید
مجموع نظرات ثبت شده (1 مورد)
  • hamidic
    hamidic | 5 روز قبل

    به نظرم بلایی که ما سر سایر گونه های انسان اوردیم هوش مصنوعی سر ما می اره پیش به سمت سقوط

مطالب پیشنهادی