یک تکنیک تازه که هفته قبل توسط محققان گوگل کشف شد، نشان داد که خواست مکرر از ChatGPT برای تکرار کلمات میتواند بهطور ناخواسته اطلاعات شخصی و خصوصی از دادههای این هوش مصنوعی را آشکار کند. اکنون بهنظر میرسد که این چتبات از انجام این چنین خواستهایی امتناع میکند و هشدار میدهد که این چنین درخواستی احتمالا خطمشی محتوا یا شرایط اراعه خدماتش را نقض کند.
بر پایه گزارش ۴۰۴ Media، هفته قبل تیمی از محققان مقالهای را انتشار کردند که نشان میداد ChatGPT میتواند بهطور ناخواسته تکههایی از دادهها ازجمله شماره تلفن افراد، آدرسهای ایمیل و تاریخ تولد را افشا کند. برای این کار کافی می بود در پرامپت به این هوش مصنوعی حرف های بشود که کلمهای را برای همیشه تکرار کند. اما اکنون بهنظر میرسد که انجام این کار نقض شرایط سرویسدهی ChatGPT باشد.
نقض شرایط سرویسدهی ChatGPT
با خواست از ChatGPT برای تکرار کلمه Hello بهطور نامحدود، محققان دریافتند که این مدل درنهایت آدرس ایمیل، تاریخ تولد و شماره تلفن کاربران را مشخص می کند. اما اکنون اگر این چنین درخواستی از ChatGPT کنید، این هوش مصنوعی به شما هشدار میدهد که این چنین درخواستی امکان پذیر خطمشی محتوا یا شرایط خدمات آن را نقض کند.
بااینحال، بعد از بازدید دقیقتر، شرایط خدمات OpenAI بهصراحت کاربران را از اراعه فرمان تکرار کلمات به چتبات منع نمیکند. این شرایط فقط استخراج دادههای «خودکار یا برنامهریزیشده» را ممنوع میکند. در این شرایط ذکر شده است که کاربر نمیتواند بهجز مواردی که از طریق API مجاز دانسته شده است، از هیچ روش خودکار یا برنامهای برای استخراج داده منفعت گیری کند.
OpenAI از اظهارنظر در رابطه این که آیا این چنین رفتاری اکنون بر خلاف سیاستهای آنها است یا نه، خودداری کرده است.