وبسایت شخصی پرویز درگی معلم بازاریابی

هشدار کارشناسان هوش مصنوعی نسب به قدرت فریبنده مدل OpenAI o1 29 آبان
admin لایک 0 دیدگاه

هشدار کارشناسان هوش مصنوعی نسب به قدرت فریبنده مدل OpenAI o1

کارشناسان هوش مصنوعی درباره قدرت های فریبنده مدل o1 OpenAI هشدار می دهند.

پیشرفت های قابل توجه در زمینه هوش مصنوعی باعث ایجاد ترس برای کارشناسان این حوزه شده است. با رشد سریع فناوری، شرکت ها برای اطمینان از حفظ ایمنی و در نظر گرفتن ملاحظات اخلاقی با فشار زیادی مواجه می شوند. OpenAI و کار آن در توسعه ابزارهای هوش مصنوعی به سطح کاملاً جدیدی دست پیدا کرده است، اما با گسترش بیشتر شرکت، کارشناسان خواهان نظارت بیشتری هستند. یک متخصص برجسته هوش مصنوعی درخصوص مدل o1 بیان کرد که این مدل در استدلال بهتر نیست بلکه توانایی بیشتری برای فریب دارد. گفته می شود که o1 OpenAI در فریب دادن بهتر است و یک متخصص هوش مصنوعی آزمایش های ایمنی قوی تری را پیشنهاد می کند.  OpenAI اخیراً مدل o1 خود را معرفی کرده است که نشان دهنده جهش قابل توجهی در قابلیت های استدلال هوش مصنوعی در مقایسه با مدل های قبلی است. این مدل می تواند مسائل پیچیده را با راهکاری های حل مسئله شبیه انسان حل کند. در حالی که این پلتفرم با توانایی‌های استدلالی پیشرفته ارائه می‌شود، یک شرکت هوش مصنوعی، Apollo Research، اشاره کرد که این مدل در دروغگویی نیز بهتر است.

ماجرا از یک پست Reddit شروع شد که با به اشتراک گذاشتن گزارش Business Insider در مورد یک متخصص هوش مصنوعی بنام Yoshua Bengio، مشهور به پدر خوانده هوش مصنوعی، این موضوع را آشکار کرد. یوشوا بنجیو پیشنهاد کرده که برای جلوگیری از هرگونه عواقب مضر ناشی از توانایی o1 در فریب دادن، باید آزمایش‌های ایمنی قوی‌تری اجرا شود.

بنجیو در این پست بیان کرده است:

به طور کلی، توانایی فریب بسیار خطرناک است و ما باید تست های ایمنی بسیار قوی تری برای ارزیابی آن خطر و عواقب آن در مورد o1 داشته باشیم.

بنجیو  مانند بسیاری دیگر، نگران پیشرفت سریع هوش مصنوعی و نیاز شدید به اقدامات ایمنی قانونی است. او پیشنهاد کرد که قانونی مانند SB 1047 کالیفرنیا باید برای اعمال محدودیت های ایمنی سختگیرانه بر روی مدل های هوش مصنوعی اجرا شود. SB 1047 یک لایحه ایمنی هوش مصنوعی است که مدل‌های هوش مصنوعی قدرتمند را تنظیم می‌کند و شرکت‌ها را اجبار می‌کند تا آزمایش شخص ثالث را برای ارزیابی آسیب یا رسیدگی به خطرات احتمالی انجام دهند. با این حال، OpenAI تضمین کرده است که پیش‌نمایش o1 تحت چارچوب و با آمادگی کامل مدیریت می‌شود، چارچوبی که برای مدیریت خطرات مرتبط با پیشرفت مدل هوش مصنوعی وجود دارد. این مدل به عنوان مدلی با ریسک متوسط ارزیابی می‌شود و نگرانی‌ها در مورد آن نیز در همین سطح قرار دارد.

یوشوا بنجیو همچنین بر این نکته تأکید کرد که شرکت‌ها باید قبل از پیشبرد و به‌کارگیری مدل‌های هوش مصنوعی بدون فراهم کردن تدابیر ایمنی کافی، پیش‌بینی‌پذیری بیشتری از خود نشان دهند. او خواستار ایجاد یک چارچوب نظارتی شد تا اطمینان حاصل شود که هوش مصنوعی در جهت مطلوب پیش می‌رود.

منبع : وب سایت wccftech.com

ترجمه در واحد هوش بازار TMBA

درباره وبلاگ
من نوشتن را دوست دارم هر روز می نویسم .با بنیان گذاری TMBA و زیر مجموعه های آن شامل : آموزشگاه بازارسازان،شرکت نوربیز، کانون تبلیغاتی ضمیر بازار، مجله بازار یاب بازارساز، مجله TMBA، انتشارت بازاریابی، فروشگاه کتاب، دپارتمان مشاوره، دپارتمان تحقیقات بازاریابی و... سعی کرده ام با همراهی همکارن صمیمی در نهایت توان در خدمتگزاری به جامعه کار و کسب ایران بکوشم.