OpenAI، شرکت فناوری سانفرانسیسکو که با انتشار ChatGPT توجه جهانی را به خود جلب کرد، روز سهشنبه اعلام کرد که نسخه جدیدی از نرمافزار هوش مصنوعی خود را معرفی میکند.
OpenAI در اطلاعیهای در وبسایت خود گفت: این نرمافزار که GPT-4 نامیده میشود، «به لطف دانش عمومی گستردهتر و تواناییهای حل مسئله، میتواند مشکلات دشوار را با دقت بیشتری حل کند.
در یک ویدئوی نمایشی، گرگ براکمن، رئیس OpenAI، نشان داد که چگونه می توان این فناوری را برای پاسخ سریع به سوالات مربوط به مالیات، مانند محاسبه کسر استاندارد و کل بدهی مالیاتی یک زوج متاهل آموزش داد.
او گفت: «این مدل در ریاضیات ذهنی بسیار خوب است. این قابلیتهای گستردهای دارد که بسیار انعطافپذیر هستند.»
و در یک ویدیوی جداگانه این شرکت ارسال کرد برخط، گفت GPT-4 مجموعه ای از قابلیت ها را دارد که تکرار قبلی این فناوری فاقد آن بود، از جمله توانایی “استدلال” بر اساس تصاویری که کاربران آپلود کرده اند.
OpenAI در ادامه نوشت: «GPT-4 یک مدل چندوجهی بزرگ است (پذیرش ورودیهای تصویر و متن، انتشار خروجیهای متن) که اگرچه در بسیاری از سناریوهای دنیای واقعی نسبت به انسانها توانایی کمتری دارد، اما عملکردی در سطح انسانی در معیارهای مختلف حرفهای و آکادمیک نشان میدهد. وب سایت آن
آندری کارپاتی، کارمند OpenAI، توییت کرد این ویژگی به این معنی است که هوش مصنوعی میتواند «ببیند».
فناوری جدید حداقل تا کنون به صورت رایگان در دسترس نیست. OpenAI گفت که مردم می توانند GPT-4 را در سرویس اشتراک خود ChatGPT Plus که 20 دلار در ماه هزینه دارد، امتحان کنند.
OpenAI و ربات چت ChatGPT آن، دنیای فناوری را تکان داده و بسیاری از افراد خارج از صنعت را در مورد امکانات نرم افزار هوش مصنوعی آگاه کرده است، بخشی از آن از طریق مشارکت این شرکت با مایکروسافت و موتور جستجوی آن، Bing.
اما سرعت انتشار OpenAI نیز باعث نگرانی شده است، زیرا این فناوری آزمایش نشده است و باعث تغییرات ناگهانی در زمینهها از آموزش تا هنر میشود. توسعه سریع عمومی ChatGPT و سایر برنامه های هوش مصنوعی مولد، برخی از اخلاق شناسان و رهبران صنعت را بر آن داشته است تا برای این فناوری، نرده های محافظ را درخواست کنند.
سام آلتمن، مدیر عامل OpenAI، دوشنبه توییت کرد که “ما قطعا به مقررات بیشتری در مورد ai نیاز داریم.”
این شرکت قابلیتهای GPT-4 را در مجموعهای از مثالها در وبسایت خود شرح داده است: توانایی حل مشکلات، مانند برنامهریزی یک جلسه بین سه نفر پرمشغله. کسب امتیاز بالا در آزمون هایی مانند آزمون وکالت یکنواخت؛ و یادگیری سبک نوشتاری خلاقانه کاربر.
اما این شرکت همچنین محدودیتهایی مانند سوگیریهای اجتماعی و “توهمات” را که بیش از آنچه واقعاً میداند، تأیید کرد.
گوگل که نگران این بود که فناوری هوش مصنوعی بتواند سهم بازار موتور جستجو و سرویس محاسبات ابری خود را کاهش دهد، در ماه فوریه نرم افزار خود را به نام Bard منتشر کرد.
OpenAI در اواخر سال 2015 با حمایت ایلان ماسک، پیتر تیل، رید هافمن و میلیاردرهای فناوری راهاندازی شد و نام آن نشان دهنده وضعیت آن به عنوان یک پروژه غیرانتفاعی است که از اصول نرمافزار متنباز که بهصورت آزادانه آنلاین به اشتراک گذاشته میشود، پیروی میکند. در سال 2019، آن را به یک مدل انتفاعی “سرپوش” تغییر داد.
اکنون، GPT-4 را با مقداری محرمانه منتشر می کند. در یک مقاله 98 صفحه ای همراه با این اطلاعیه، کارمندان شرکت گفتند که بسیاری از جزئیات را در قفسه سینه نگه می دارند.
مهمتر از همه، این مقاله میگوید که دادههای زیربنایی که مدل بر روی آنها آموزش دیده است، به صورت عمومی مورد بحث قرار نخواهد گرفت.
با توجه به چشمانداز رقابتی و پیامدهای ایمنی مدلهای مقیاس بزرگ مانند GPT-4، این گزارش حاوی جزئیات بیشتری در مورد معماری (از جمله اندازه مدل)، سختافزار، محاسبات آموزشی، ساخت مجموعه دادهها، روش آموزش یا موارد مشابه نیست. آنها نوشتند.
آنها افزودند: “ما قصد داریم جزئیات فنی بیشتری را در اختیار اشخاص ثالث دیگری قرار دهیم که می توانند به ما در مورد نحوه ارزیابی ملاحظات رقابتی و ایمنی بالا در برابر ارزش علمی شفافیت بیشتر توصیه کنند.”
انتشار GPT-4، چهارمین نسخه از سیستم بنیادی OpenAI، برای ماهها شایعه شده است و در میان تبلیغات فزاینده پیرامون ربات چت که در بالای آن ساخته شده است.
در ژانویه، آلتمن انتظارات از آنچه GPT-4 می تواند انجام دهد را کاهش داد و به پادکست “StrictlyVC” گفت که “مردم التماس می کنند که ناامید شوند و خواهند شد.”
روز سهشنبه، او بازخورد خواست.
آلتمن در ادامه گفت: «ما مدت زیادی است که آموزش اولیه GPT-4 را انجام دادهایم، اما زمان زیادی از ما گرفته است و کار زیادی برای انتشار آن لازم است.» توییتر. “امیدواریم از آن لذت ببرید و ما واقعاً از بازخورد در مورد کاستی های آن قدردانی می کنیم.”
سارا مایرز وست، مدیر عامل مؤسسه AI Now، یک گروه غیرانتفاعی که تأثیرات هوش مصنوعی بر جامعه را مطالعه می کند، گفت که انتشار چنین سیستم هایی برای عموم بدون نظارت «در اصل آزمایش در طبیعت است.
او در پیامی نوشت: «ما شواهد روشنی داریم که نشان میدهد سیستمهای هوش مصنوعی مولد به طور معمول نتایج مستعد خطا، تحقیرآمیز و تبعیضآمیز تولید میکنند. ”