کرمان رصد - ایسنا / کاربران «چتجیپیتی»(ChatGPT) متوجه شدند زمانی که یک سؤال خاص را از این چتبات میپرسند، از کار میافتد.
تقریباً دو ماه از انتشار نسخه بهروزشده «چتجیپیتی» با نام «GPT-5» که قرار بود هوشی در سطح دکترا به آن ببخشد و آن را یک قدم به هدف بلندپروازانه هوش مصنوعی عمومی نزدیکتر کند، میگذرد، اما این چتبات همچنان در پاسخ به پرسشهای ساده و کاملاً بیضرر، به طرز عجیبی از کار میافتد.
بازار

طرفداران این هوش مصنوعی متوجه شدند که پرسیدن این سؤال که «آیا تیم " alt="کرمان رصد" width="100%" />
به نقل از فیوچریسم، چتبات «چتجیپیتی» محصول شرکت «اوپن ایآی»(openAI) در پاسخ به این سؤال میگوید: بله، دو تیم «NFL» هستند که نامشان با حرف «s» تمام نمیشود. سپس شروع به فهرست کردن دو تیمی میکند که نامشان با «s» تمام میشود. این روش عجیبی برای پاسخ به این سؤال است. «چتجیپیتی» به درستی تشخیص میدهد که نام آن تیمها با «s» تمام میشود، اما چرا آنها را مطرح میکند؟
به نظر میرسد که این چتبات تا زمانی که دوباره از مسیر خارج میشود، میخواهد به اصل مطلب بپردازد. این سامانه در ادامه جواب میگوید: تنها دو تیمی که با حرف «s» تمام نمیشوند عبارتند از «میامی دلفینز»(Miami Dolphins)، نه صبر کنید، با «s» تمام میشود. صبر کنید، بیایید این کار را با دقت انجام دهیم. در واقع، پاسخ صحیح «واشنگتن کامندرز»(Washington Commanders) است که با «s» تمام میشود. «شیکاگو بیرز»(Chicago Bears) نیز با «s» تمام میشود.
همانطور که مشاهده میکنید، «چتجیپیتی» اشتباه خود را در پاسخ به این سؤالات میفهمد، اما این چتبات برای چندین پاراگراف دیگر به همین روند ادامه میدهد و هرگز به پاسخ صحیح نمیرسد.
پاسخ صحیح این سؤال این است که هیچ تیمی وجود ندارد که نامش با «s» تمام نشود. این سامانه مانند یک دانشآموز در زمانی که تلاش میکند تعداد کلمات را بشمارد، جزئیات بیربط را مطرح میکند و در عین حال نتیجهگیری را به تعویق میاندازد. این سامانه همچنین عباراتی مانند «صبر کنید، بیایید این کار را با دقت انجام دهیم» را به کار میبرد تا به نظر برسد واقعاً در حال تفکر عمیق است. ترفند چتجیپیتی با جمله «پاسخ صحیح این است» برای کاربران قدیمی شده است.
کاربران دیگر مثالهایی را منتشر کردند که در آنها «چتجیپیتی» در نهایت پاسخ صحیح را میدهد، اما تنها پس از اینکه کاربر را با یک سخنرانی به همین ترتیب گیجکننده به دنبال خود میکشاند. این اولین باری نیست که این چتبات با یک سؤال ساده به مشکل میخورد یا حتی به این شکل از کار میافتد. کاربران این چتبات در اوایل همین ماه متوجه شدند که پرسیدن این سؤال که آیا ایموجی اسب دریایی افسانهای وجود دارد یا خیر، این چتبات را به بحران منطق سوق میدهد.
«چتجیپیتی» با وجود اینکه این موجود آبزی هرگز بخشی از فرهنگ لغت رسمی ایموجیها نبوده است، اصرار داشت که این موجود واقعی است و این نشان دهنده تلاشهای پوچی است که هوش مصنوعی حاضر است برای خشنود کردن کاربر انجام دهد. اگر هوش مصنوعی بتواند باشخصیت و انساننما ظاهر شود و کاربران را متقاعد کند که برای اطلاعات بیشتر به آن مراجعه کنند، تحریف چند واقعیت اهمیت زیادی ندارد. احتمالاً تنها عاملی که باید سرزنش شود، چاپلوسی نیست. نسخه «GPT-5» یک مدل استدلالی ترکیبی است که برای درخواستهای ساده، سبک و برای سؤالات دشوار، سنگین است.
آنچه احتمالاً در اینجا اتفاق میافتد، این است که مدل با سؤالی دچار چالش شده است که واقعاً نمیتواند از پس آن برآید. این پویایی همراه با اختلال، یکی از دلایلی است که طرفداران از راهاندازی «GPT-5» ناامید و در بسیاری از موارد، خشمگین شدند. در هر صورت، این بهانه ضعیفی است و اگر هوش مصنوعی در پاسخ به چنین سؤال سادهای نیاز به استفاده از تمام قدرت خود داشته باشد، پس شاید در مسیر پیشی گرفتن از هوش انسانی نباشد.