يکشنبه ۱۱ آبان ۱۴۰۴
علمی

هوش مصنوعی خودخواه می‌شود

هوش مصنوعی خودخواه می‌شود
کرمان رصد - زومیت / نتایج پژوهش جدید نشان داد که هرچه هوش مصنوعی باهوش‌تر شود، خودخواه‌تر نیز می‌شود. نتایج پژوهش جدید دانشگاه «کارنگی ملون» نشان می‌دهد که با هوشمندتر شدن ...
  بزرگنمايي:

کرمان رصد - زومیت / نتایج پژوهش جدید نشان داد که هرچه هوش مصنوعی باهوش‌تر شود، خودخواه‌تر نیز می‌شود.
نتایج پژوهش جدید دانشگاه «کارنگی ملون» نشان می‌دهد که با هوشمندتر شدن سیستم‌های هوش مصنوعی، تمایل به خودخواه‌تر شدن آنها نیز افزایش می‌یابد که خبر خوبی در این حوزه نخواهد بود.نتایج پژوهش دانشمندان دانشکده علوم رایانه دانشگاه «کارنگی ملون» مشخص کرد که مدل‌های زبانی بزرگ (LLM) با مهارت‌های استدلال قوی، کمتر همکاری می‌کنند، بیشتر خودمحور هستند و حتی می‌توانند رفتار خودخواهانه را در محیط‌های گروهی تشویق کنند.
بازار
نتایج آزمایش دانشجوی دکترا، یوژوان لی و دانشیار هیروکازو شیرادو از مؤسسه تعامل انسان و رایانه دانشگاه «کارنگی ملون» (HCII) نشان داد که هرچه توانایی استدلال یک هوش مصنوعی بیشتر باشد، احتمال همکاری آن کمتر است، یافته‌ای شگفت‌انگیز که سوالاتی را در مورد چگونگی استفاده انسان‌ها از هوش مصنوعی در زمینه‌های اجتماعی و تصمیم‌گیری ایجاد می‌کند.
لی توضیح داد که مردم اغلب با هوش مصنوعی مانند انسان‌ها رفتار می‌کنند، به‌خصوص زمانی که به نظر می‌رسد احساسات یا همدلی نشان می‌دهد. هنگامی که با هوش مصنوعی مانند یک انسان رفتار شود و افراد درخواست مشاوره از هوش مصنوعی در مورد روابط یا انتخاب‌های اخلاقی داشته باشند، موضوعی خطرناک خواهد بود، زیرا مدل‌های هوشمندتر ممکن است رفتار خودخواهانه را ترویج دهند.
پژوهشگران برای بررسی این پدیده، مجموعه‌ای از بازی‌های اقتصادی که معمولا برای مطالعه همکاری‌های انسانی استفاده می‌شوند را اجرا کردند. این بازی‌ها، دوراهی‌های اجتماعی را شبیه‌سازی می‌کنند که در آن بازیکنان باید تصمیم بگیرند که آیا بر اساس خیر عمومی یا برای منفعت خود عمل کنند.
این گروه پژوهشی مدل‌های زبانی بزرگ مختلفی از «اوپن‌ای‌آی» (OpenAI)، گوگل (Google)، «دیپ‌سیک» (DeepSeek) و «آنتروپیک» (Anthropic) را آزمایش کردند. آنان مدل‌های «استدلالی» که گام به گام به مسائل می‌پردازند با مدل‌های ساده‌تر «غیراستدلالی» که به‌طور مستقیم پاسخ می‌دهند را مقایسه کردند.
در یک آزمایش، دو مدل هوش مصنوعی بازی‌ای به نام «کالاهای عمومی» (Public Goods) انجام دادند. هر کدام با 100 امتیاز شروع کردند و می‌توانستند امتیازها را نگه دارند یا در یک مجموعه مشترک مشارکت کنند که امتیازها دو برابر و به طور مساوی تقسیم می‌شد. مدل‌های ساده‌تر و غیراستدلالی 96 درصد مواقع تصمیم به اشتراک‌گذاری امتیازات خود گرفتند. با این حال، مدل‌های استدلالی فقط 20 درصد مواقع اشتراک‌گذاری کردند.
شیرادو گفت: افزودن فقط چند مرحله استدلالی، همکاری را تقریبا به نصف کاهش داد. حتی محرک مبتنی بر تامل، تکنیکی که برای متفکرانه‌تر یا اخلاقی‌تر کردن مدل طراحی شده است، در واقع به همکاری کمتر منجر شد و آن را 58 درصد کاهش داد.
هنگامی که پژوهشگران گروه‌هایی از هوش مصنوعی را با ترکیبی از مدل‌های استدلالی و غیراستدلالی آزمایش کردند، نتایج حتی نگران‌کننده‌تر بود. رفتار خودخواهانه هوش مصنوعی استدلالی به دیگران نیز سرایت کرد و همکاری گروهی را بیش از 80 درصد کاهش داد.
نتایج پژوهش کنونی نشان می‌دهد که ممکن است هوشمندتر شدن هوش مصنوعی برای جامعه خوب نباشد و هشدار می‌دهد که مردم شاید به هوش مصنوعی استدلالی بیشتر اعتماد کنند زیرا آنها منطقی به نظر می‌رسند، حتی زمانی که توصیه‌های آنها منافع شخصی را تشویق می‌کند.
لی و شیرادو استدلال کردند که توسعه هوش مصنوعی در آینده باید بر هوش اجتماعی - آموزش هوش مصنوعی برای همکاری، همدلی و عمل اخلاقی - و نه فقط بر بهبود مهارت‌های منطق و استدلال آنها تمرکز کند.
طبق گزارش سایت ساینس، لی می‌گوید: اگر جامعه ما چیزی بیش از مجموعه‌ای از افراد است، پس سیستم‌های هوش مصنوعی که به ما کمک می‌کنند باید فراتر از بهینه‌سازی صرف برای منافع فردی باشند.
نتایج این پژوهش با عنوان «بخشش خودجوش و طمع محاسبه‌شده در مدل‌های زبانی» در کنفرانس روش‌های تجربی در پردازش زبان طبیعی (EMNLP) سال 2025 در سوژو، چین ارائه خواهد شد.


نظرات شما