OpenAI GPT-4 را منتشر می کند، هوش مصنوعی که می تواند “دیدن” و مالیات را انجام دهد



OpenAI، شرکت فناوری سانفرانسیسکو که با انتشار ChatGPT توجه جهانی را به خود جلب کرد، روز سه‌شنبه اعلام کرد که نسخه جدیدی از نرم‌افزار هوش مصنوعی خود را معرفی می‌کند.

OpenAI در اطلاعیه‌ای در وب‌سایت خود گفت: این نرم‌افزار که GPT-4 نامیده می‌شود، «به لطف دانش عمومی گسترده‌تر و توانایی‌های حل مسئله، می‌تواند مشکلات دشوار را با دقت بیشتری حل کند.

در یک ویدئوی نمایشی، گرگ براکمن، رئیس OpenAI، نشان داد که چگونه می توان این فناوری را برای پاسخ سریع به سوالات مربوط به مالیات، مانند محاسبه کسر استاندارد و کل بدهی مالیاتی یک زوج متاهل آموزش داد.

او گفت: «این مدل در ریاضیات ذهنی بسیار خوب است. این قابلیت‌های گسترده‌ای دارد که بسیار انعطاف‌پذیر هستند.»

و در یک ویدیوی جداگانه این شرکت ارسال کرد برخط، گفت GPT-4 مجموعه ای از قابلیت ها را دارد که تکرار قبلی این فناوری فاقد آن بود، از جمله توانایی “استدلال” بر اساس تصاویری که کاربران آپلود کرده اند.

OpenAI در ادامه نوشت: «GPT-4 یک مدل چندوجهی بزرگ است (پذیرش ورودی‌های تصویر و متن، انتشار خروجی‌های متن) که اگرچه در بسیاری از سناریوهای دنیای واقعی نسبت به انسان‌ها توانایی کمتری دارد، اما عملکردی در سطح انسانی در معیارهای مختلف حرفه‌ای و آکادمیک نشان می‌دهد. وب سایت آن

آندری کارپاتی، کارمند OpenAI، توییت کرد این ویژگی به این معنی است که هوش مصنوعی می‌تواند «ببیند».

فناوری جدید حداقل تا کنون به صورت رایگان در دسترس نیست. OpenAI گفت که مردم می توانند GPT-4 را در سرویس اشتراک خود ChatGPT Plus که 20 دلار در ماه هزینه دارد، امتحان کنند.

OpenAI و ربات چت ChatGPT آن، دنیای فناوری را تکان داده و بسیاری از افراد خارج از صنعت را در مورد امکانات نرم افزار هوش مصنوعی آگاه کرده است، بخشی از آن از طریق مشارکت این شرکت با مایکروسافت و موتور جستجوی آن، Bing.

اما سرعت انتشار OpenAI نیز باعث نگرانی شده است، زیرا این فناوری آزمایش نشده است و باعث تغییرات ناگهانی در زمینه‌ها از آموزش تا هنر می‌شود. توسعه سریع عمومی ChatGPT و سایر برنامه های هوش مصنوعی مولد، برخی از اخلاق شناسان و رهبران صنعت را بر آن داشته است تا برای این فناوری، نرده های محافظ را درخواست کنند.

سام آلتمن، مدیر عامل OpenAI، دوشنبه توییت کرد که “ما قطعا به مقررات بیشتری در مورد ai نیاز داریم.”

این شرکت قابلیت‌های GPT-4 را در مجموعه‌ای از مثال‌ها در وب‌سایت خود شرح داده است: توانایی حل مشکلات، مانند برنامه‌ریزی یک جلسه بین سه نفر پرمشغله. کسب امتیاز بالا در آزمون هایی مانند آزمون وکالت یکنواخت؛ و یادگیری سبک نوشتاری خلاقانه کاربر.

اما این شرکت همچنین محدودیت‌هایی مانند سوگیری‌های اجتماعی و “توهمات” را که بیش از آنچه واقعاً می‌داند، تأیید کرد.

گوگل که نگران این بود که فناوری هوش مصنوعی بتواند سهم بازار موتور جستجو و سرویس محاسبات ابری خود را کاهش دهد، در ماه فوریه نرم افزار خود را به نام Bard منتشر کرد.

OpenAI در اواخر سال 2015 با حمایت ایلان ماسک، پیتر تیل، رید هافمن و میلیاردرهای فناوری راه‌اندازی شد و نام آن نشان دهنده وضعیت آن به عنوان یک پروژه غیرانتفاعی است که از اصول نرم‌افزار متن‌باز که به‌صورت آزادانه آنلاین به اشتراک گذاشته می‌شود، پیروی می‌کند. در سال 2019، آن را به یک مدل انتفاعی “سرپوش” تغییر داد.

اکنون، GPT-4 را با مقداری محرمانه منتشر می کند. در یک مقاله 98 صفحه ای همراه با این اطلاعیه، کارمندان شرکت گفتند که بسیاری از جزئیات را در قفسه سینه نگه می دارند.

مهم‌تر از همه، این مقاله می‌گوید که داده‌های زیربنایی که مدل بر روی آنها آموزش دیده است، به صورت عمومی مورد بحث قرار نخواهد گرفت.

با توجه به چشم‌انداز رقابتی و پیامدهای ایمنی مدل‌های مقیاس بزرگ مانند GPT-4، این گزارش حاوی جزئیات بیشتری در مورد معماری (از جمله اندازه مدل)، سخت‌افزار، محاسبات آموزشی، ساخت مجموعه داده‌ها، روش آموزش یا موارد مشابه نیست. آنها نوشتند.

آنها افزودند: “ما قصد داریم جزئیات فنی بیشتری را در اختیار اشخاص ثالث دیگری قرار دهیم که می توانند به ما در مورد نحوه ارزیابی ملاحظات رقابتی و ایمنی بالا در برابر ارزش علمی شفافیت بیشتر توصیه کنند.”

انتشار GPT-4، چهارمین نسخه از سیستم بنیادی OpenAI، برای ماه‌ها شایعه شده است و در میان تبلیغات فزاینده پیرامون ربات چت که در بالای آن ساخته شده است.

در ژانویه، آلتمن انتظارات از آنچه GPT-4 می تواند انجام دهد را کاهش داد و به پادکست “StrictlyVC” گفت که “مردم التماس می کنند که ناامید شوند و خواهند شد.”

روز سه‌شنبه، او بازخورد خواست.

آلتمن در ادامه گفت: «ما مدت زیادی است که آموزش اولیه GPT-4 را انجام داده‌ایم، اما زمان زیادی از ما گرفته است و کار زیادی برای انتشار آن لازم است.» توییتر. “امیدواریم از آن لذت ببرید و ما واقعاً از بازخورد در مورد کاستی های آن قدردانی می کنیم.”

سارا مایرز وست، مدیر عامل مؤسسه AI Now، یک گروه غیرانتفاعی که تأثیرات هوش مصنوعی بر جامعه را مطالعه می کند، گفت که انتشار چنین سیستم هایی برای عموم بدون نظارت «در اصل آزمایش در طبیعت است.

او در پیامی نوشت: «ما شواهد روشنی داریم که نشان می‌دهد سیستم‌های هوش مصنوعی مولد به طور معمول نتایج مستعد خطا، تحقیرآمیز و تبعیض‌آمیز تولید می‌کنند. ”