به گزارش اکوایران، یک مطالعه تحقیقاتی اخیر با عنوان «مدل‌های زبانی بزرگ‌تر و قابل آموزش‌تر کمتر قابل اعتماد می‌شوند» در مجله علمی نیچر نشان داد که چت‌بات‌های مبتنی بر هوش مصنوعی با عرضه مدل‌های جدیدتر، با گذشت زمان اشتباهات بیشتری مرتکب می‌شوند.

به نوشته کوین تلگراف، لکسین ژو، یکی از نویسندگان این مطالعه، این نظریه را مطرح کرد که از آنجایی که مدل‌های هوش مصنوعی همواره برای ارائه پاسخ‌های قابل باور بهینه شده‌اند، پاسخ‌های ظاهرا صحیح اولویت‌بندی می‌شوند و صرف نظر از دقت، در اختیار کاربر قرار می‌گیرند.

این موضوع که به اصطلاح «توهمات هوش مصنوعی» نامیده می‌شود، با گذشت زمان تمایل به پیچیده‌تر شدن دارند؛ یک پدیده تشدید شده با استفاده از مدل‌های بزرگ زبان قدیمی‌تر برای آموزش مدل‌های بزرگ زبان جدیدتر که منجر به فروپاشی مدل» می‌شود.

ماتیو روی، سردبیر و نویسنده، به کاربران هشدار داد که بیش از حد به این ابزارها تکیه نکنند و همواره به بررسی نتایج تولید شده توسط هوش مصنوعی بپردازند.

او گفت: «حالیکه هوش مصنوعی می‌تواند برای تعدادی از وظایف مفید باشد، مهم است که کاربران اطلاعاتی را که از مدل‌های هوش مصنوعی دریافت می‌کنند، تأیید کنند. بررسی حقایق باید جزئی از فرآیند هنگام استفاده از ابزارهای هوش مصنوعی باشد. این امر درباره چت‌بات‌های خدمات مشتری، پیچیده‌تر می‌شود.»

ماتیو روی همچنین اعلام کرد:‌ «اغلب هیچ راهی برای بررسی اطلاعات وجود ندارد جز پرسیدن از خود چت‌بات.»

مشکل سرسخت توهمات هوش مصنوعی

پلتفرم هوش مصنوعی گوگل در فوریه 2024 پس از اینکه شروع به تولید تصاویر غیردقیق کرد، مورد تمسخر قرار گرفت. نمونه‌هایی از این موارد شامل تصویرسازی مردم رنگین‌پوست به عنوان افسران نازی و ایجاد تصاویر نادرست از چهره‌های تاریخی شناخته شده بود.

متأسفانه، حوادثی مانند این با تکرار روند فعلی هوش مصنوعی و مدل‌های بزرگ زبانی، بسیار رایج است. مدیران اجرایی این صنعت از جمله جن‌سون هوانگ، مدیرعامل انویدیا، برای کاهش توهمات هوش مصنوعی پیشنهاد کرده‌اند که مدل‌های هوش مصنوعی را به انجام تحقیق و ارائه منابع برای هر پاسخ داده شده به کاربر مجبور کنند.

با وجود اینکه این اقدامات در حال حاضر در محبوب‌ترین مدل‌های هوش مصنوعی وجود دارند، اما مشکل توهمات هوش مصنوعی همچنان ادامه دارد.

اخیرا در سپتامبر، مت شوما، مدیرعامل شرکت «هایپر رایت اِی‌آی» اعلام کرد که مدل جدید 70B این شرکت از روشی به نام "تنظیم بازتاب" استفاده می‌کند که ظاهرا به مدل هوش مصنوعی راهی برای یادگیری از طریق تجزیه و تحلیل اشتباهات خود و تنظیم پاسخ‌ها ارائه می‌دهد.