TASIAMAG

رفتن به صفحه اصلی تاسیامگ

بـــــروز زنــــدگی کــــنـیــم


۲ مطلب با کلمه‌ی کلیدی «GPT-4» ثبت شده است

TASIAMAG
مدل هوش مصنوعی GPT-4 چه تغییرات و برتری‌هایی نسبت به مدل‌های قبلی دارد؟

مدل هوش مصنوعی GPT-4 چه تغییرات و برتری‌هایی نسبت به مدل‌های قبلی دارد؟

مدل هوش مصنوعی جدید GPT-4 تغییرات مهمی داشته است و در این مطلب پنج مورد از مهم‌ترین آن‌ها را بررسی می‌کنیم.

 


مدل هوش مصنوعی جدید GPT-4 که دیشب توسط OpenAI معرفی شد، تغییرات مهمی نسبت به نسخه قبلی دارد و سروصدای زیادی به‌پا کرده است. در این مطلب می‌خواهیم ببینیم مهم‌ترین تفاوت‌های این نسخه با GPT-3 چیست.

پیش از هر چیز باید اشاره‌ای به نام GPT-4 داشته باشیم. OpenAI چندی قبل مدل هوش مصنوعی خود را به مایکروسافت داد تا از آن در چت‌بات بینگ استفاده کند. البته این مدل ظاهراً تفاوت‌هایی با مدل حاضر در ChatGPT داشت و از آن با عنوان GPT-3.5 یاد می‌شد. اما حالا بالاخره نوبت به GPT-4 رسیده و مایکروسافت هم از همین مدل در بینگ چت استفاده کرده است.

1. GPT-4 می‌تواند تصاویر را درک کند

مشهودترین تغییر در نسخه جدید مدل هوش مصنوعی GPT-4 چندوجهی‌بودن آن است؛ یعنی می‌تواند بیش از یک نوع محتوا را درک کند. GPT-3 محدود به متن بود، اما وارث آن می‌تواند تصاویر را نگاه کند و اطلاعات آن را بفهمد.

Be My Eyes

برای مثال می‌توانید از GPT-4 بخواهید آنچه درون تصاویر وجود دارد را توصیف کند یا براساس آن به شما اطلاعات دهد. OpenAI حالا با اپلیکیشن Be My Eyes همکاری کرده است تا از این ویژگی برای کمک به افراد نابینا یا کم‌بینا استفاده کند. برای نمونه جی‌پی‌تی-4 می‌تواند الگوهای روی لباس‌ها را ببیند، گیاهان مختلف را تشخیص دهد یا برچسب روی محصولات را بخواند و نوشته آن‌ها را ترجمه کند.

ادامه مطلب...
۲۴ اسفند ۰۱ ، ۱۹:۴۵ ۰ نظر موافقین ۰ مخالفین ۰
TASIAMAG
شرکت OpenAI از مدل هوش مصنوعی GPT-4 رونمایی کرد

شرکت OpenAI از مدل هوش مصنوعی GPT-4 رونمایی کرد

مدل GPT-4 از ورودی‌های متنی و تصویری پشتیبانی می‌کند، البته خروجی‌های آن‌ها تنها به‌صورت متن خواهد بود.

 


شرکت OpenAI، سازنده چت‌بات مطرح ChatGPT، جدیدترین مدل هوش مصنوعی خود یعنی GPT-4 را عرضه کرد. این مدل قدرتمند قادر به درک تصاویر و متون است و از امروز از طریق سرویس پولی ChatGPT Plus در اختیار افراد قرار می‌گیرد، البته توسعه‌دهندگان باید برای دسترسی به API آن در لیست انتظار قرار بگیرند.

پشتیبانی هوش مصنوعی GPT-4 از ورودی متنی و تصویری

به گفته OpenAI، مدل GPT-4 از ورودی‌های متنی و تصویر پشتیبانی می‌کند که یک پیشرفت نسبت به مدل GPT-3.5 محسوب می‌شود؛ مدلی که تنها از ورودی‌های متنی پشتیبانی می‌کند. شرکت OpenAI به مدت 6 ماه به‌طور مکرر از طریق برنامه‌های آزمایشی خصمانه و همچنین ChatGPT، مشغول آزمایش این مدل بوده تا به بهترین نتایج دست پیدا کند.

طبق ادعای OpenAI، این مدل از همیشه خلاق‌تر است و می‌تواند مسائل دشوار را با دقت بالاتری حل کند. درحال‌حاضر OpenAI با چندین شرکت برای ادغام GPT-4 در محصولاتشان همکاری کرده است که شامل دولینگو و Stripe می‌شود.

اگرچه GPT-4 از ورودی‌های متنی و تصویری پشتیبانی می‌کند، اما تنها با متن به کاربران جواب می‌دهد. همانطور که گفتیم، این مدل از طریق سرویس ChatGPT پلاس با هزینه ماهانه 20 دلار در اختیار کاربران قرار می‌گیرد و همچنین طبق گفته مایکروسافت، این مدل برای چت‌بات بینگ مورد استفاده قرار گرفته است.

به گفته OpenAI، در مکالمات معمولی تفاوت چندانی میان GPT-4 و GPT-3.5 وجود ندارد (GPT-3.5 برای ChatGPT استفاده شده است). سم آلتمن، مدیرعامل OpenAI در توییتی گفته که GPT-4 همچنان ناقص است و محدودیت دارد، بااین‌حال همچنان در اولین استفاده از آن تحت تأثیر قرار می‌گیرید.

سازنده GPT-4 می‌گوید بهبودهای این مدل در چندین آزمون و بنچمارک ازجمله LSAT و SAT Math مشهود است. در آزمون‌ها GPT-4 توانسته نمرات بالایی کسب کند. GPT-4 درواقع یک مدل چند وجهی است که می‌تواند ورودی‌های متن و تصویر را قبول کند، اما خروجی‌ها به‌صورت متن در اختیار کاربران قرار می‌گیرند.

به گفته OpenAI، این مدل می‌تواند به‌طور همزمان متن و عکس را تجزیه‌وتحلیل کند تا قادر به تحلیل ورودی‌های پیچیده‌تر باشد. GPT-4 به مدت 6 ماه تحت آزمایش‌های ایمنی قرار داشته و به گفته سازنده‌اش، نسبت به مدل قبلی، GPT-3.5 تا 82 درصد کمتر به درخواست‌های غیرمجاز پاسخ می‌دهد و همچنین 40 درصد احتمال بیشتری وجود دارد که پاسخ‌های واقعی بدهد.

باید منتظر ماند و دید GPT-4 منجر به خلق چه چت‌بات‌هایی می‌شود و آیا محصولات ساخته‌شده با آن می‌توانند از ChatGPT محبوب‌تر شوند یا خیر.

۲۳ اسفند ۰۱ ، ۲۱:۳۰ ۰ نظر موافقین ۰ مخالفین ۰
Fixed Menu