هشدار کارشناسان هوش مصنوعی نسب به قدرت فریبنده مدل OpenAI o1
کارشناسان هوش مصنوعی درباره قدرت های فریبنده مدل o1 OpenAI هشدار می دهند.
پیشرفت های قابل توجه در زمینه هوش مصنوعی باعث ایجاد ترس برای کارشناسان این حوزه شده است. با رشد سریع فناوری، شرکت ها برای اطمینان از حفظ ایمنی و در نظر گرفتن ملاحظات اخلاقی با فشار زیادی مواجه می شوند. OpenAI و کار آن در توسعه ابزارهای هوش مصنوعی به سطح کاملاً جدیدی دست پیدا کرده است، اما با گسترش بیشتر شرکت، کارشناسان خواهان نظارت بیشتری هستند. یک متخصص برجسته هوش مصنوعی درخصوص مدل o1 بیان کرد که این مدل در استدلال بهتر نیست بلکه توانایی بیشتری برای فریب دارد. گفته می شود که o1 OpenAI در فریب دادن بهتر است و یک متخصص هوش مصنوعی آزمایش های ایمنی قوی تری را پیشنهاد می کند. OpenAI اخیراً مدل o1 خود را معرفی کرده است که نشان دهنده جهش قابل توجهی در قابلیت های استدلال هوش مصنوعی در مقایسه با مدل های قبلی است. این مدل می تواند مسائل پیچیده را با راهکاری های حل مسئله شبیه انسان حل کند. در حالی که این پلتفرم با تواناییهای استدلالی پیشرفته ارائه میشود، یک شرکت هوش مصنوعی، Apollo Research، اشاره کرد که این مدل در دروغگویی نیز بهتر است.
ماجرا از یک پست Reddit شروع شد که با به اشتراک گذاشتن گزارش Business Insider در مورد یک متخصص هوش مصنوعی بنام Yoshua Bengio، مشهور به پدر خوانده هوش مصنوعی، این موضوع را آشکار کرد. یوشوا بنجیو پیشنهاد کرده که برای جلوگیری از هرگونه عواقب مضر ناشی از توانایی o1 در فریب دادن، باید آزمایشهای ایمنی قویتری اجرا شود.
بنجیو در این پست بیان کرده است:
به طور کلی، توانایی فریب بسیار خطرناک است و ما باید تست های ایمنی بسیار قوی تری برای ارزیابی آن خطر و عواقب آن در مورد o1 داشته باشیم.
بنجیو مانند بسیاری دیگر، نگران پیشرفت سریع هوش مصنوعی و نیاز شدید به اقدامات ایمنی قانونی است. او پیشنهاد کرد که قانونی مانند SB 1047 کالیفرنیا باید برای اعمال محدودیت های ایمنی سختگیرانه بر روی مدل های هوش مصنوعی اجرا شود. SB 1047 یک لایحه ایمنی هوش مصنوعی است که مدلهای هوش مصنوعی قدرتمند را تنظیم میکند و شرکتها را اجبار میکند تا آزمایش شخص ثالث را برای ارزیابی آسیب یا رسیدگی به خطرات احتمالی انجام دهند. با این حال، OpenAI تضمین کرده است که پیشنمایش o1 تحت چارچوب و با آمادگی کامل مدیریت میشود، چارچوبی که برای مدیریت خطرات مرتبط با پیشرفت مدل هوش مصنوعی وجود دارد. این مدل به عنوان مدلی با ریسک متوسط ارزیابی میشود و نگرانیها در مورد آن نیز در همین سطح قرار دارد.
یوشوا بنجیو همچنین بر این نکته تأکید کرد که شرکتها باید قبل از پیشبرد و بهکارگیری مدلهای هوش مصنوعی بدون فراهم کردن تدابیر ایمنی کافی، پیشبینیپذیری بیشتری از خود نشان دهند. او خواستار ایجاد یک چارچوب نظارتی شد تا اطمینان حاصل شود که هوش مصنوعی در جهت مطلوب پیش میرود.
منبع : وب سایت wccftech.com