هوش مصنوعی

چالش‌های کاربرد ChatGPT در حوزه مشاوره‌های پزشکی

OpenAI در آخرین به‌روزرسانی خود در زمینه سیاست‌های استفاده از محصولات، تغییرات معناداری انجام داده است. بر اساس سیاست‌های جدید که از تاریخ ۲۹ اکتبر (۷ آبان) به مرحله اجرا درآمده، کاربران مجاز نیستند از خدمات این شرکت برای ارائه مشاوره‌های تخصصی مانند مشاوره‌های پزشکی یا حقوقی که مستلزم داشتن مجوز هستند، بهره‌برداری کنند.

در ابتدای سند جدید، OpenAI به وضوح تاکید کرده که هدف آن «استفاده ایمن و مسئولانه» از فناوری هوش مصنوعی است و به دنبال ایجاد تعادل میان آزادی بیان کاربران برای نوآوری و تعیین مرزهایی است که از وقوع آسیب‌ها جلوگیری کند.

محدودیت‌های جدید ChatGPT برای مشاوره‌های پزشکی

در بخشی از این سند، آمده است که کاربران نمی‌توانند از خدمات OpenAI برای ارائه‌ مشاوره‌های تخصصی استفاده کنند، مگر آنکه متخصصان مجاز در این زمینه حضور داشته باشند. به نظر می‌رسد که این بند بیشتر یک توصیه احتیاطی برای کاهش مسئولیت‌های قانونی احتمالی است تا یک ممنوعیت قاطع. در واقع، OpenAI تصریح کرده که مسئولیت نهایی در استفاده درست از این ابزارها همچنان بر عهده‌ کاربران خواهد بود.

علاوه بر مسائل مربوط به مشاوره‌های تخصصی، سیاست‌های جدید OpenAI شامل حوزه‌های وسیع‌تری نیز می‌شود. از جمله این موارد می‌توان به:

  • ممنوعیت استفاده از خدمات برای تهدید، آزار یا تحریک به خشونت
  • اجتناب از اتخاذ تصمیمات خودکار در زمینه‌هایی نظیر آموزش، مهاجرت، اشتغال و امور مالی بدون نظارت انسانی
  • ممنوعیت تولید یا توزیع محتواهایی که ممکن است کودکان را در معرض خطر قرار دهند یا شامل محتوای نامناسب باشد.

OpenAI اعلام کرده که سیاست‌های خود را به‌طور مستمر به‌روزرسانی خواهد کرد تا ضمن حفظ آزادی عمل، از کاربران در برابر سوءاستفاده‌ها حمایت کند. به‌عنوان مثال، این شرکت به تازگی اعلام کرده است که به زودی به کاربرانی که سن آن‌ها به تأیید رسیده است، اجازه خواهد داد تا با ChatGPT وارد مکالمات با محتوای بزرگسالانه شوند.

این شرکت همچنین خاطرنشان کرده است که کاربران در صورت مشاهده نقص یا اشتباه در اجرای سیاست‌ها، می‌توانند درخواست بازنگری یا تجدیدنظر ارائه دهند.

مقالات مرتبط

دکمه بازگشت به بالا