هوش مصنوعی

آنتروپیک به منظور آموزش هوش مصنوعی از گفتگوهای کاربران بهره‌برداری خواهد کرد

شرکت آنتروپیک، خالق مدل برجسته هوش مصنوعی کلود، به تازگی تغییرات عمده‌ای در سیاست‌های خود ایجاد کرده و اعلام کرده که از این پس برای آموزش و بهبود مدل‌های آینده، از مکالمات و کدهای کاربران استفاده خواهد کرد، مگر اینکه کاربران به‌طور صریح با این موضوع مخالفت کنند.

آنتروپیک به‌تازگی سیاست‌های خود را به‌روز نموده تا مکالمات مشتریان به‌عنوان بخشی از فرایند آموزش مدل‌هایش مورد استفاده قرار گیرد. علاوه بر این، مدت زمان نگهداری داده‌های کاربرانی که با این شرایط موافقت کنند به پنج سال افزایش یافته است. این تغییرات نگرانی‌های عمده‌ای درباره حریم خصوصی و شیوه‌های به‌دست آوردن رضایت کاربران را به همراه داشته است.

بدین ترتیب، زمان ورود کاربران به چت‌بات، با یک پنجره پاپ‌آپ مواجه خواهند شد که عنوان آن «به‌روزرسانی شرایط و سیاست‌های مصرف‌کننده» است و کاربران تا تاریخ ۲۸ سپتامبر ۲۰۲۵ (۶ مهر ۱۴۰۴) فرصت دارند تصمیم نهایی خود را بگیرند. با این حال، طراحی این پنجره با انتقادات چشمگیری روبرو شده است.

آموزش مدل‌های هوش مصنوعی آنتروپیک با مکالمات کاربران

در انتهای صفحه پاپ‌آپ جدید، یک دکمه بزرگ و واضح با عنوان «پذیرش» (Accept) قرار داده شده است، در حالی‌که گزینه اصلی برای مجوز استفاده از داده‌ها در فرآیند آموزش، با اندازه فونت کوچک‌تر به عنوان یک دکمه روشن/خاموش در زیر آن گنجانده شده است. این دکمه به‌صورت پیش‌فرض در حالت «روشن» تنظیم شده است. چنین طراحی‌ای موجب می‌شود که بسیاری از کاربران بدون اینکه جزئیات را بخوانند، فقط با کلیک بر روی دکمه بزرگ «پذیرش»، به‌طور ناخواسته راضی به اشتراک‌گذاری اطلاعات خود شوند.

اگر تمایلی به استفاده از مکالمات شما برای آموزش هوش مصنوعی ندارید، باید تیک مربوطه را خاموش کرده و سپس روی دکمه اکسپت کلیک کنید.

در صورتی که به اشتباه موافقت کرده‌اید، می‌توانید با مراجعه به تنظیمات (Settings)، سپس بخش حریم خصوصی (Privacy) و در نهایت قسمت «Help improve Claude» این گزینه را غیرفعال کنید. لازم به ذکر است که این تغییر فقط بر داده‌های آتی تأثیر خواهد گذاشت و اطلاعاتی که پیش‌تر برای آموزش به کار رفته‌اند، قابل بازگشت نخواهند بود.

این به‌روزرسانی شامل تمامی کاربران اشتراک‌های معمولی کلود، اعم از طرح‌های رایگان، پرو و مکس می‌شود. با این وجود، آنتروپیک به وضوح بیان کرده که این تغییرات شامل کاربران تجاری و سازمانی (مانند Claude for Work و Education) نخواهد شد و افرادی که از طریق API شرکت‌های دیگر مثل Amazon Bedrock و Google Cloud به کلود دسترسی دارند، نیز مشمول این سیاست‌ها نمی‌باشند.

نکته حائز اهمیت این است که این سیاست تنها بر روی مکالمات جدید یا مکالمات قدیمی که دوباره آغاز شوند، اجرا خواهد شد. اطلاعات قبلی شما تنها در صورتی که آن‌ها را ادامه دهید، برای فرایند آموزش استفاده خواهند شد.

آنتروپیک هدف خود از این سیاست را ایجاد مدل‌های هوش مصنوعی توانمندتر و کاربردی‌تر عنوان کرده است. به گفته این شرکت، داده‌های کاربران به افزایش ایمنی مدل‌ها، بهبود دقت در شناسایی محتوای مضر و تقویت مهارت‌هایی همچون کدنویسی و تحلیل کمک خواهد کرد.

این شرکت تضمین داده که با استفاده از مجموعه‌ای از ابزارها و فرایندهای اتوماتیک، قادر به فیلتر یا پنهان‌سازی داده‌های حساس خواهد بود و اطلاعات کاربران را به هیچ شخص ثالثی نخواهد فروخت. افرادی که با اشتراک‌گذاری داده‌های خود موافقت ننمایند، همچنان تحت سیاست‌های پیشین باقی خواهند ماند و اطلاعات آن‌ها پس از گذشت ۳۰ روز حذف خواهند شد.

مقالات مرتبط

دکمه بازگشت به بالا