مالک چت‌جی‌پی‌تی: ممکن است محتوای گفت‌و‌گو‌های کاربران افشا شود + راه‌حل چیست؟

  4040518079

مدیرعامل شرکت اپن‌ای‌آی هشدار داد: مراقب باشید چه چیزی به چت‌جی‌پی‌تی می‌گویید؛ مدل هوش مصنوعی، درمانگر شما نیست و شرکت سازنده نمی‌تواند محرمانگی آن را کاملاً تضمین کند.

مالک چت‌جی‌پی‌تی: ممکن است محتوای گفت‌و‌گو‌های کاربران افشا شود + راه‌حل چیست؟

فزایش استفاده از چت‌بات‌های هوش مصنوعی به‌عنوان درمانگر، پزشک یا وکیل مشکلات جدی در زمینه حریم خصوصی ایجاد کرده است. هیچ قانون مشخصی درباره محرمانگی این گفت‌و‌گو‌ها وجود ندارد و سازوکار واقعی پردازش این مکالمات به طرز نگران‌کننده‌ای مبهم است. البته مشکلات دیگری نیز در استفاده از هوش مصنوعی به‌عنوان مشاور یا محرم اسرار وجود دارد، از جمله ارائه توصیه‌های خطرناک.

 

ارائه اطلاعات نادرست یا گمراه‌کننده

بر پایه‌ی مدل‌های آماری و داده‌های قبلی آموزش دیده ، به این معنا که بر اساس الگوهای زبانی و مفهومی که در گذشته دریافت کرده، پاسخ تولید می‌کند. اما این موضوع باعث می‌شود بعضی اوقات اطلاعاتی را ارائه دهد که دقیق و معتبر نباشد. مثلا:

  • ممکن است درباره یک موضوع علمی، پاسخ‌هایی بدهد که ظاهرا درست و منطقی‌اند، اما در واقع پشتوانه علمی ندارند.

  • در برخی موارد اطلاعات قدیمی را به‌جای اطلاعات آپدیت ارائه می‌دهد، چون داده‌های آموزش‌دیده‌اش محدود به یک بازه زمانی مشخص‌اند.

  • ممکن است برای حفظ جریان مکالمه، چت جی پی تی اطلاعاتی را بسازد که واقعی نیستند.

این نوع پاسخ‌ها ممکن است برای کاربرانی که تخصص کافی ندارند، قابل باور به نظر برسد. به خصوص در حوزه‌هایی مانند سلامت، روان‌شناسی، حقوق و آموزش، استفاده بدون بررسی از پاسخ‌های چت جی‌پی‌تی می‌تواند منجر به تصمیم‌گیری‌های اشتباه و پرهزینه شود. بنابراین تأکید بر راستی‌آزمایی و استفاده آگاهانه از آن اهمیت زیادی دارد

 

امکان سوءاستفاده‌های هدفمند از این فناوری

توانایی تولید محتوای متنی روان و طبیعی توسط chat gpt، همان‌قدر که جذاب است، می‌تواند خطرناک هم باشد. افرادی با نیت‌های نادرست می‌توانند از این قابلیت برای اهداف مخرب استفاده کنند. از جمله مهم‌ترین شکل‌های سوءاستفاده می‌توان به این موارد اشاره کرد:

  • فیشینگ و کلاهبرداری آنلاین: تولید ایمیل‌های جعلی با ظاهری رسمی و معتبر.

  • پخش اطلاعات نادرست: انتشار مطالب ساختگی یا تحریف‌شده برای تاثیرگذاری بر افکار عمومی.

  • ایجاد محتوای نفرت‌پراکن یا غیراخلاقی: تولید متن‌هایی با محتوای خشونت‌آمیز یا توهین‌آمیز که در صورت انتشار در فضای مجازی، اثرات منفی اجتماعی دارد.

  • شبیه‌سازی هویت افراد: نوشتن متن‌هایی به نام اشخاص یا سازمان‌هایی که معتبر و شناخته‌شده اند با هدف فریب دیگران.

به همین دلیل، موضوع «اخلاق در هوش مصنوعی» و «مقررات‌گذاری» برای استفاده از این مدل‌ها یکی از مهم‌ترین چالش‌های حال حاضر است.

چت جی پی تی و افشای گفت‌وگوهای کاربران

 

تضعیف تفکر مستقل و کاهش خلاقیت فردی

استفاده بیش‌ازحد از چت جی‌پی‌تی می‌تواند به مرور زمان باعث کاهش توانایی‌های فکری افراد شود. هنگامی که فرد برای نوشتن متن، انجام تکالیف، تولید ایده یا حتی پاسخ به سوالات ساده، به‌طور مداوم از هوش مصنوعی استفاده می‌کند، دیگر نیازی به فکر کردن و تحلیل شخصی نمی‌بیند. این روند ممکن است در بلندمدت به پدیده‌هایی مثل موارد زیر منجر شود:

  • افت مهارت های نوشتاری و زبانی: افراد به‌جای تمرین نوشتن، صرفاً از متن‌های تولیدشده استفاده می‌کنند.

  • کاهش توانایی حل مسئله: کاربران به جای تلاش برای حل یک مسئله، مستقیماً پاسخ آن را از مدل دریافت می‌کنند.

  • وابستگی ذهنی به سیستم‌های هوش مصنوعی: شکل‌گیری عادت استفاده از راه‌حل‌های آماده به‌جای به‌کارگیری خلاقیت و تفکر مستقل

این مسئله به‌ویژه در سنین پایین‌تر و در میان دانش‌آموزان و دانشجویان نگران‌کننده‌تر است؛ چرا که توانایی یادگیری و شکل‌گیری ذهن خلاق و تفکر مستقل آن ها در معرض خطر از دست دادن مهارت‌های اساسی قرار می‌گیرد.

هوش مصنوعی

 

هوش مصنوعی به‌عنوان ابزار مکمل، نه جایگزین

چت جی‌پی‌تی به‌خودی‌خود تهدیدی برای انسان نیست، در واقع ابزاری‌ است که اگر به‌درستی استفاده شود، می‌تواند موجب بهبود عملکرد فردی و سازمانی شود. در حقیقت، هوش مصنوعی می‌تواند:

  • بار کاری انسان را کاهش دهد

  • فرآیندهای تکراری و زمان‌بر را اتوماتیک کند

  • دستیار فکری و محتوایی باشد

  • ایده‌پردازی را تسریع کند

برای مثال، یک نویسنده می‌تواند از chat GPT برای یافتن موضوعات جدید یا خلاصه‌سازی مطالب استفاده کند، اما تولید محتوای نهایی، نیاز به خلاقیت، احساس و قضاوت انسانی دارد. یا یک معلم ممکن است از چت جی‌پی‌تی برای طراحی تمرین استفاده کند، اما آموزش مؤثر، تعامل انسانی می‌طلبد.

در واقع، استفاده هوشمندانه از این ابزار می‌تواند قدرت انسان را افزایش دهد، نه اینکه جای او را بگیرد. مهم این است که کاربران با آگاهی، مرز بین «کمک گرفتن» و «جایگزین کردن» را بشناسند.

 

۱. راه حل برای در امان ماندن اطلاعات شخصی از دست ChatGPT: حالت ناشناس را در ChatGPT فعال کنید

به‌طور پیش‌فرض، OpenAI از پیام‌هایی که به ChatGPT ارسال می‌کنید برای «آموزش و بهبود» مدل‌های خود استفاده می‌کند، اما کاربران این قدرت را دارند که با استفاده از حالت ناشناس پلتفرم‌ها از این اتفاق جلوگیری کنند.

روش اول

برای فعال کردن آن، ChatGPT را در مرورگر خود باز کنید، روی نام کاربری خود در سمت چپ کلیک کنید، به تنظیمات بروید و در کنار Data Controls روی Show کلیک کنید. پس از رسیدن به آنجا، سوئیچ تاریخچه و آموزش چت را خاموش کنید.

از آن نقطه به بعد، هر بار که صفحه مرورگر را ببندید، گزارش مکالمه شما با ChatGPT از حساب شما ناپدید می‌شود، اما این بدان معنا نیست که کاملا از بین رفته است، پشت صحنه OpenAI به مدت ۳۰ روز در تاریخچه چت شما قرار می‌گیرد تا قبل از حذف دائم آن را مورد سوءاستفاده قرار دهد.

روش دوم

در منوی Data Controls، یک گزینه Export data وجود دارد. این بر نحوه استفاده OpenAI از اطلاعات شما یا حذف آنچه قبلا جمع آوری کرده است، تاثیر نمی‌گذارد، اما به شما ایده بهتری از آنچه OpenAI روی شما دارد می‌دهد. ممکن است شامل چت‌هایی باشد که پاک نکرده‌اید و بازخوردی که به پاسخ‌های ChatGPT داده‌اید.

اگر چیزی در آن وجود دارد که با آن راحت نیستید، می‌توانید به صورت دستی سابقه چت خود را پاک کنید.

روش سوم

به رابط ChatGPT برگردید، روی نام کاربری خود و سپس پاک کردن مکالمات کلیک کنید تا کل گزارش خود را به یکباره پاک کنید، یا روی نماد سطل زباله در کنار هر چت خاصی کلیک کنید تا آن را پاک کنید.

ChatGPT نمی‌تواند از مکالمات حذف شده برای آموزش استفاده کند، اما بسته به مدت زمانی که سابقه چت شما وجود داشته است، ربات چت ممکن است قبل از شما به آن دسترسی داشته باشد. برای جلوگیری از این اتفاق در آینده یا فقط در صورتی که شخصی به رایانه شما دسترسی پیدا کند و بخواهد نگاهی به مکالمات شما بیاندازد، ایده خوبی است که هر چند وقت یکبار ثبت نام چت خود را مرتب کنید.

در نهایت، اگر دیگر نمی‌خواهید با ChatGPT صحبت کنید، همیشه می‌توانید اکانت خود را حذف کنید، برای این منظور می‌توانید از پنل Data Controls این کار را انجام دهید.

افشای گفت‌وگوهای کاربران توسط هوش مصنوعی

۲. راه حل برای در امان ماندن اطلاعات شخصی: مراقب آنچه به ChatGPT می‌گویید باشید

ChatGPT ممکن است متن را به روشی طبیعی و واقعی تولید کند، اما به عنوان یک دوست یا مشاور به آن اعتماد نکنید. اسناد پشتیبانی رسمی این پلتفرم به کاربران می‌گوید که هیچ اطلاعات حساسی را با چت بات به اشتراک نگذارند و این به این دلیل است که مطمئن شدن از نحوه استفاده و تجزیه و تحلیل داده‌های شما در آینده دشوار است.

خط‌مشی رازداری چت‌بات می‌گوید OpenAI داده‌هایی مانند مکالمات شما و ویژگی‌هایی را که با آن‌ها درگیر می‌شوید ثبت می‌کند و ممکن است «اطلاعات جمع‌آوری شده» مانند آمار کاربران را با اشخاص ثالث به اشتراک بگذارد؛ به عنوان مثال در پاسخ به درخواست‌های قانونی مجریان قانون، این شرکت ممکن است اطلاعات شخصی کاربران مانند آدرس‌های ایمیل و داده‌های مکان را نیز با «شرکت‌های وابسته» به اشتراک بگذارد، اما این سند مبهم است و مشخص نمی‌کند که این شرکت‌های وابسته دقیقا چه کسانی هستند.

این یک خط مشی رازداری استاندارد است، اما قانون به وضوح مانند اکثر پلتفرم‌های آنلاین است: هرچه کمتر درباره خود به اشتراک بگذارید، بهتر است. این نه تنها از شما در برابر اقدامات مشکوک حریم خصوصی که OpenAI ممکن است در آینده داشته باشد، محافظت می‌کند، بلکه از اشکالات و هک‌ها نیز جلوگیری می‌کند؛ به عنوان مثال، قطعی اخیر ChatGPT منجر به مشاهده عناوین از تاریخچه چت سایر کاربران فعال شد.

اگر اطلاعات عمومی در مورد شما در اینترنت وجود دارد، ChatGPT ممکن است بتواند به سایر کاربران درباره شما بگوید و اگر این به اندازه کافی ترسناک نیست، به این فکر کنید که در صورت بروز اشتباه چه اتفاقی می‌افتد. اگر می‌خواهید نادرستی‌ها را تصحیح کنید یا فقط از فراگیری ChatGPT در مورد خودتان جلوگیری کنید، می‌توانید این فرم را پر کنید یا از طریق dsar@openai.com با OpenAI در تماس باشید.



۳. با برنامه‌های شخص ثالث ChatGPT بسیار محتاط باشید

ما آنچه را باید هنگام استفاده از پلتفرم ChatGPT بدانید، پوشش داده‌ایم، اما این تنها جایی نیست که با ربات چت مواجه می‌شوید. این ابزار در همه جا ظاهر می‌شود، زیرا OpenAI به برنامه‌ها و پلاگین‌های شخص ثالث اجازه می‌دهد تا در بالای آن ساخته شوند و اگر از هر یک از آن‌ها استفاده می‌کنید، مجموعه جدیدی از مسائل حریم خصوصی و امنیتی وجود دارد که باید در مورد آن‌ها فکر کنید.

وقتی صحبت از استفاده از یک برنامه افزودنی یا برنامه افزودنی مرورگر ساخته شده در بالای ChatGPT می‌شود، باید همان احتیاط را در مورد هر ابزار شخص ثالث دیگر اعمال کنید: مجوز‌های مورد نیاز را بررسی کنید، خط مشی رازداری و شرایط و ضوابط را مطالعه کنید و در مورد هزینه‌های مرتبط با آن، چه هزینه اشتراک یا پرداخت‌های درون برنامه‌ای، مطلع شوید.

به محض اینکه چیزی به اندازه ChatGPT محبوب شد، کلاهبرداران و هکر‌ها نیز مایل به ورود به آن هستند، بنابراین ما همچنین توصیه می‌کنیم درباره پیشینه توسعه‌دهنده پشت هر ابزار ChatGPT که استفاده می‌کنید، تحقیق کنید.

قابل اعتمادترین برنامه‌ها تنظیمات حریم خصوصی و امنیتی خود را دارند که می‌توانید پیکربندی کنید؛ برای مثال، وقتی صحبت از چت ربات Bing AI مجهز به ChatGPT می‌شود که توسط مایکروسافت اجرا می‌شود، روی سه خط افقی در گوشه سمت راست بالای رابط Bing کلیک کنید، سپس تاریخچه جستجو را انتخاب کنید تا چت‌هایی را که با هوش مصنوعی داشته‌اید، برای پاک کردن این نتایج در صورت نیاز مشاهده کنید.

yektanetتریبون

آخرین عناوین