اطلاعات شخصی خود را با ChatGPT به اشتراک نگذارید
سم آلتمن، مدیرعامل OpenAI، در یک مصاحبه اخیر به مخاطبان یادآوری کرد که صنعت هوش مصنوعی هنوز موفق به ایجاد تمهیدات کامل برای حفاظت از حریم خصوصی کاربرانش در مباحث حساس نشده است. او تصریح کرد که زمانی که افراد از چتباتها مانند ChatGPT برای مشاورههای درمانی یا حمایت عاطفی استفاده میکنند، هیچ گونه حریم شخصی مشابهی با آنچه بین پزشک و بیمار وجود دارد، برقرار نیست.
وی اظهارات خود را در بخش جدیدی از پادکست «This Past Weekend» بیان کرده است. وقتی در خصوص تعامل هوش مصنوعی با سیستمهای حقوقی موجود سوال شد، آلتمن توضیح داد یکی از چالشهای کلیدی، فقدان یک چارچوب جامع قانونی یا سیاستگذاری برای هوش مصنوعی است که موجب میشود در ارتباطات کاربران با این فناوری، حفاظت قانونی وجود نداشته باشد.
نقاط ضعف ChatGPT در نقش درمانگر
او در این زمینه بیان کرد:
«افراد مسائل بسیار شخصی خود را با ChatGPT به اشتراک میگذارند. کاربران، بهویژه جوانترها، از این چتبات بهعنوان یک مشاور و هدایتکننده زندگی بهره میبرند و احساسات و دغدغههای خود را بازگو میکنند. ولی اگر این مسائل را با یک درمانگر، وکیل یا پزشک واقعی در میان بگذاریم، این مکالمات تحت حریم قانونی محافظت میشوند. اما متاسفانه این نوعی حفاظت برای ChatGPT هنوز وجود ندارد.»
به گفته آلتمن، در صورت بروز یک شکایت قانونی، این موضوع میتواند به یک مساله جدی در زمینه حریم خصوصی کاربران تبدیل گردد چرا که در حال حاضر OpenAI به لحاظ قانونی ملزم به ارائه اطلاعات این گفتگوها در صورت درخواست است.
وی در ادامه افزود:
«اگر کاربری در مورد یک موضوع بسیار حساس با ChatGPT صحبت کرده و سپس به یک پرونده قانونی گرفتار شود، ممکن است ما به طور قانونی ملزم به ارائه آن اطلاعات شویم. به نظر من این شرایط نگرانکنندهای است. مکالمات کاربران با چتباتها باید از همان سطح حریم خصوصی که در تعامل با پزشک یا درمانگر انتظار میرود، برخوردار باشد.»
به عنوان نمونه، OpenAI هماکنون در حال رسیدگی به پروندهای از سوی نیویورکتایمز است که این شرکت را ملزم به ذخیره مکالمات صدها میلیون کاربر ChatGPT در سراسر جهان (به استثنای کاربران نسخه Enterprise) میکند. OpenAI در بیانیهای در وبسایت خود اعلام کرده که به این حکم اعتراض کرده و آن را «زیادهخواهی» توصیف نموده است.