هوش مصنوعی

استفاده از هوش مصنوعی زایا می‌تواند اسرار شرکت‌ها را به خطر بیندازد

شرکت‌هایی که از ابزارهای هوش مصنوعی زایا مثل ChatGPT استفاده می‌کنند، احتمالاً اطلاعات محرمانه مشتریان و اسرار تجاری خود را در معرض خطر قرار می‌دهند. استفاده گسترده از این ابزارها اگرچه می‌تواند فوایدی داشته باشد، اما ظاهراً بی‌ضرر هم نیست.

به گزارش بلومبرگ، شرکت سرمایه‌گذاری Team8 می‌گوید استفاده از چت‌بات‌های هوش مصنوعی می‌تواند شرکت‌ها را مستعد افشای اطلاعات و شکایت‌های قضایی کند. تحلیلگران باور دارند که این چت‌بات‌ها می‌توانند توسط هکرها برای دستیابی به اطلاعات حساس شرکتی یا انجام عملیات علیه یک کسب‌وکار استفاده شوند.

ابزارهای هوش مصنوعی با اطلاعات موجود در اینترنت تعلیم داده شده‌اند، اما حالا با رواج این ابزارها در میان مردم، اگر اطلاعات محرمانه دولتی یا شرکت‌های خصوصی به آن‌ها داده شود، حذف این اطلاعات از حافظه چت‌بات‌ها کار سختی خواهد بود.

تحلیلگران Team8 می‌گویند: «استفاده تجاری از هوش مصنوعی زایا با ارائه مستقیم داده یا از طریق API می‌تواند به دستیابی و پردازش اطلاعات حساس، مالکیت‌های فکری، کد منبع، اسرار تجاری و دیگر داده‌ها منجر شود.» این شرکت باور دارد که ریسک این مسئله بالاست، اما اگر تدابیر ایمنی مناسبی را در نظر بگیریم، می‌تواند این ریسک را کنترل کرد.

اطلاعات کاربران ابزارهای هوش مصنوعی زایا چگونه به‌خطر می‌افتد؟

البته Team8 متذکر شده است که مدل‌های زبانی بزرگ درحال‌حاضر نمی‌توانند در لحظه اطلاعات خود را به‌روز کنند و به همین خاطر اطلاعات یک کاربر را در پاسخ کاربر بعدی ارائه نمی‌کنند. اما شرکت‌ها می‌توانند از ورودی‌های کاربر در آموزش نسخه‌های بعدی ابزارهای هوش مصنوعی استفاده کنند.

این گزارش از سه ریسک خطرناک دیگر در استفاده از ابزارهای هوش مصنوعی هم نام برده است. برای مثال، در سمت کاربر، اگر اپلیکیشن‌های شخص ثالث از API یک هوش مصنوعی زایا استفاده کنند، چنان‌چه این API به خطر بیفتد، امکان دسترسی به ایمیل و مرورگر وب کاربران وجود خواهد داشت.

از طرف دیگر، این ریسک وجود دارد که هوش مصنوعی تبعیض را گسترش بدهد، به اعتبار شرکت‌ها آسیب بزند یا آن‌ها را با مشکلات کپی‌رایت روبه‌رو کند.

«ان جانسون»، معاون سازمانی مایکروسافت و چندین مدیر امنیت اطلاعات در شرکت‌های آمریکایی ازجمله کسانی بوده‌اند که در تنظیم این گزارش مشارکت کرده‌اند.


Source link

مقالات مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا