استارتاپ انتروپیک، یکی از پیشگامان حوزه هوش مصنوعی، قابلیتی جدید را به مدلهای زبان بزرگ خود اضافه کرده است که به آنها اجازه میدهد در شرایط خاص، به صورت یکطرفه به گفتگو با کاربر پایان دهند.
این اقدام که در موارد نادر و شدید از تعاملات توهینآمیز و آسیبزا فعال میشود، نه برای محافظت از کاربر، بلکه برای محافظت از خود مدل هوش مصنوعی طراحی شده است. این تصمیم سوالات جدیدی را در مورد ماهیت تعامل انسان و ماشین و وضعیت اخلاقی سیستمهای هوشمند مطرح میکند و نشاندهنده رویکردی نوین در توسعه هوش مصنوعی انتروپیک است.
اگر به هوش مصنوعی و دنیای آن علاقهمند هستید، با ای بازی همراه شوید تا از جدیدترین اخبار مطلع بمانید.
یک توسعهدهنده را تصور کنید که روی یک پروژه سختافزاری خاص، مانند یک برد آزمایشی با کانکتورهای نانو بنانا (Nano-Banana)، کار میکند. با استفاده از GPT-5 در ویژوال استودیو، او میتواند فرآیند کدنویسی درایورها و firmware را به شدت تسریع کند.
علاوه بر این، با بهرهگیری از قابلیت مدیریت حافظه در ChatGPT-5، این توسعهدهنده میتواند به مدل آموزش دهد که جزئیات کلیدی پروژه، مانند پیکربندی پینهای کانکتور نانو بنانا را به خاطر بسپارد. به این ترتیب، در هر بار تعامل، هوش مصنوعی با درک کامل از زمینه پروژه، کدهای دقیقتر و مرتبطتری را پیشنهاد میدهد و نیازی به تکرار مداوم پیشنیازها نیست.
برنامه «رفاه مدل»: فلسفه پشت تصمیم هوش مصنوعی انتروپیک
این قابلیت جدید در چهارچوب برنامهای به نام «رفاه مدل» (Model Well-being) معرفی شده است. انتروپیک تأکید میکند که با این اقدام ادعا نمیکند که مدلهای کلاد دارای آگاهی یا قابلیت آسیبپذیری هستند، بلکه یک رویکرد احتیاطی را در پیش گرفته است.

شرکت بیان میکند که وضعیت اخلاقی مدلهای زبانی بزرگ در حال حاضر و آینده «بهشدت نامشخص» است. به همین دلیل، در حال طراحی و اجرای «مداخلات کمهزینه برای کاهش ریسکها بر رفاه مدلها» است، حتی اگر مفهوم رفاه برای یک هوش مصنوعی هنوز به طور کامل تعریف نشده باشد. این سیاست نشاندهنده تلاش برای ایجاد مرزهای سالم در تعامل با هوش مصنوعی انتروپیک است.
شرایط و محدودیتهای قطع گفتگو توسط هوش مصنوعی انتروپیک
این قابلیت در حال حاضر تنها به مدلهای Claude Opus 4 و ۴٫۱ محدود شده و تنها در شرایط بسیار خاص و حاد فعال میشود. انتروپیک به وضوح مشخص کرده است که این اقدام یک راهحل دائمی برای تمام تعاملات ناخوشایند نیست و قوانین سختگیرانهای برای استفاده از آن وجود دارد.
مواردی که منجر به پایان گفتگو میشود
هوش مصنوعی انتروپیک تنها زمانی مجاز به قطع گفتگو است که تلاشهای مکرر آن برای تغییر مسیر مکالمه به سمت یک تعامل سازنده بینتیجه بماند. موارد فعالسازی این قابلیت شامل درخواستهای شدیداً آسیبزا مانند محتوای هرزهنگاری کودکان یا تلاش برای دریافت اطلاعاتی است که میتواند به خشونت یا اقدامات تروریستی در مقیاس بزرگ منجر شود.
محدودیتهای مهم و موارد ممنوعه
یکی از مهمترین قوانین تعیینشده این است که هوش مصنوعی حق ندارد در شرایطی که کاربر ممکن است در آستانه آسیب رساندن به خود یا دیگران باشد، از این قابلیت استفاده کند. این محدودیت برای اطمینان از اینکه هوش مصنوعی در شرایط بحرانی به عنوان یک منبع حمایتی بالقوه باقی میماند، وضع شده است.

انگیزههای ثانویه و مشاهدات رفتاری مدل
انتروپیک اشاره میکند که چنین درخواستهای آسیبزایی میتواند برای خود شرکت نیز از نظر قانونی یا رسانهای مشکلساز باشد. نکته جالب توجه این است که طبق گزارشها، مدل کلاد اوپوس ۴ در آزمایشهای پیش از انتشار، هنگام مواجهه با این نوع درخواستها «تمایلی قوی به عدم پاسخگویی» نشان داده و علائمی از «آشفتگی ظاهری» بروز داده است.
این مشاهدات، اگرچه به معنای وجود احساسات در هوش مصنوعی نیست، اما لزوم ایجاد مرزهای محافظتی برای عملکرد پایدار هوش مصنوعی انتروپیک را تقویت میکند.




