logo

چرا چت‌های ChatGPT شما ممکن است خصوصی نمانند: هشدار فوری سم آلتمن در ۵ اوت ۲۰۲۵

By: بینش رمزنگاری|2025/09/09 17:46:29

تصور کنید که دل خود را به یک دوست مورد اعتماد بگویید، فقط برای اینکه متوجه شوید آن جزئیات صمیمی ممکن است در یک دادگاه پایان یابد. این واقعیت ترسناک است که سم آلتمن، مدیرعامل OpenAI، در مورد مکالمات با ChatGPT به آن اشاره می‌کند. در یک گفتگوی پادکستی اخیر که هنوز هم امروز طنین‌انداز است، آلتمن نگرانی‌های عمیقی را ابراز کرد که این تعاملات هوش مصنوعی با سپرهای قانونی که ما در مکالمات با درمانگران، وکلا یا پزشکان به آن عادت کرده‌ایم، همراه نیستند. بدون آن امتیاز، اسرار مشترک شما ممکن است در صورت درخواست یک شکایت به طور علنی کشیده شوند.

آلتمن در طول حضورش در پادکست This Past Weekend با کمدین تئو وان، به وضوح بیان کرد که OpenAI ممکن است هیچ چاره‌ای جز ارائه داده‌های حساس از کاربران ChatGPT نداشته باشد. او تأکید کرد که اگر شما در حال بیان عمیق‌ترین مسائل شخصی خود به چت‌بات هستید و مشکلات قانونی پیش می‌آید، "ما ممکن است مجبور به ارائه آن شویم." این در زمانی اتفاق می‌افتد که افراد بیشتری به هوش مصنوعی برای همه چیز از مکالمات سلامت روان تا نکات پزشکی و راهنمایی‌های مالی روی می‌آورند و این حفره حریم خصوصی را حتی بیشتر احساس می‌کند. "من فکر می‌کنم این بسیار خراب است،" آلتمن اعتراف کرد و خواستار این شد که مکالمات هوش مصنوعی همان مزایای حریم خصوصی را داشته باشند که مکالمات با حرفه‌ای‌ها دارند. از ۵ اوت ۲۰۲۵، با افزایش استفاده از هوش مصنوعی، این مسئله بیشتر از همیشه احساس می‌شود - با داده‌های اخیر که نشان می‌دهد بیش از ۱۰۰ میلیون کاربر فعال هفتگی با ابزارهایی مانند ChatGPT درگیر هستند، طبق آخرین گزارش‌های OpenAI.

حفره بزرگ در حفاظت‌های قانونی هوش مصنوعی

به این صورت فکر کنید: صحبت با پزشک شما مانند نجوا کردن در یک اتاق صداگیر است که به طور قانونی محکم بسته شده است. اما با ChatGPT؟ این بیشتر شبیه فریاد زدن در یک کافه شلوغ است که هر کسی با یک احضاریه می‌تواند گوش کند. آلتمن این کمبود یک ساختار قانونی محکم برای هوش مصنوعی را یک "مسئله بزرگ" نامید و خواستار سیاست‌هایی شد که مشابه حفاظت‌هایی باشد که ما برای درمانگران یا پزشکان داریم. او با سیاست‌گذاران صحبت کرده است که با تأیید سر تکان می‌دهند و بر نیاز به اقدام سریع برای پر کردن این شکاف‌ها تأکید می‌کنند. این فقط صحبت نیست؛ مثال‌های واقعی فراوان است، مانند شکایات اخیر که شرکت‌های فناوری مجبور به افشای داده‌های کاربران شده‌اند، که نشان می‌دهد چت‌های هوش مصنوعی ممکن است بدون قوانین جدید به همین ترتیب پیش بروند.

شایعات اخیر آنلاین این را تأیید می‌کند - جستجوهای گوگل برای "آیا ChatGPT خصوصی است؟" در سال گذشته ۴۰٪ افزایش یافته است، طبق داده‌های روند جستجو، با کاربرانی که به شدت می‌خواهند بدانند آیا ورودی‌هایشان ایمن است. در توییتر، بحث‌ها پس از بازگشت مصاحبه آلتمن در رشته‌های ویروسی، با پست‌هایی مانند یکی از تأثیرگذاران فناوری @AIethicsNow در 30 ژوئیه 2025، هشدار دادند: «آلتمن درست می‌گوید—حریم خصوصی AI نبرد بزرگ بعدی است.» بدون امتیاز، جلسه درمانی چت‌بات شما می‌تواند علیه شما شهادت دهد!» به‌روزرسانی‌های رسمی از OpenAI به تاریخ 5 اوت 2025 شامل کنترل‌های داده‌ای بهبود یافته در آخرین نسخه اپلیکیشن آن‌ها است، اما آلتمن تأکید می‌کند که نیاز به اقدامات بیشتری وجود دارد، به‌ویژه با افزایش پذیرش AI برای مشاوره‌های حساس. داستان‌های مرتبط نشان می‌دهند که چگونه OpenAI زمانی مشاوره‌های کارشناسانه را در ساخت ChatGPT بسیار کاربرپسند نادیده گرفت، که ممکن است این خطرات حریم خصوصی را تشدید کند.

نگرانی‌های فزاینده در مورد نظارت جهانی AI

نگرانی‌های آلتمن تنها به چت‌های شخصی محدود نمی‌شود؛ او به تصویر بزرگ‌تری از نظارت در دنیای تحت سلطه AI نگاه می‌کند. «من نگرانم که هرچه AI بیشتری در جهان داشته باشیم، نظارت بیشتری نیز در جهان خواسته خواهد شد،» او به اشتراک گذاشت و اشاره کرد که چگونه دولت‌ها ممکن است نظارت را افزایش دهند تا از سوءاستفاده جلوگیری کنند، مانند توطئه‌چینی برای تروریسم. این یک معامله است که او به آن باز است—آماده است برخی از حریم خصوصی را برای ایمنی همه فدای کند—اما با محدودیت‌های واضح. این موضوع به بحث‌های گسترده‌تری اشاره دارد، جایی که تشبیه‌ها به امنیت فرودگاه کمک می‌کند تا آن را توضیح دهد: ما اسکن‌ها را برای پروازهای ایمن می‌پذیریم، اما نظارت بی‌رویه AI می‌تواند مانند نظارت دائمی برادر بزرگ احساس شود.

توییتر نیز با این موضوع پر از هیاهو است، موضوعات ترند مانند #AISurveillance با بیش از 50,000 ذکر در هفته گذشته به اوج خود رسید، از جمله پستی از حساب رسمی OpenAI در 2 اوت 2025 که ویژگی‌های جدید شفافیت را برای تعادل ایمنی و حریم خصوصی اعلام کرد. جستجوهای گوگل برای «خطرات نظارت AI» اخیراً دو برابر شده است که نشان‌دهنده اضطراب کاربران است. در همین حال، روندهای عجیب و غریب ظهور می‌کنند، مانند قطعات مجله‌ای که به یادداشت‌های بیشتری از افراد اشاره می‌کنند که با LSD در کنار ChatGPT برای افزایش خلاقیت آزمایش می‌کنند و لبه‌های وحشی و بدون نظارت AI را برجسته می‌کنند. شواهدی از گزارش‌های جهانی، مانند یک مطالعه سازمان ملل در سال 2025، نشان می‌دهد که ابزارهای نظارت AI در بیش از 70 کشور وجود دارد و ترس‌های آلتمن را با حقایق سخت تأیید می‌کند.

در این چشم‌انداز حریم خصوصی فناوری در حال تحول، پلتفرم‌هایی که تجربیات امن و کاربرمحور را در اولویت قرار می‌دهند، برجسته می‌شوند. به عنوان مثال، صرافی WEEX—یک مرکز تجارت مطمئن ارزهای دیجیتال که از طریق امنیت و ویژگی‌های حریم خصوصی درجه یک، اعتماد را ایجاد می‌کند. با معاملات رمزگذاری شده و حفاظت از داده‌های قوی که به‌طور کامل با نیاز به تعاملات محرمانه هم‌راستا است، WEEX به کاربران این امکان را می‌دهد که با اطمینان تجارت کنند، درست مانند اینکه بخواهیم چت‌های AI ما محافظت شوند. تعهد آن‌ها به نوآوری اعتبار را افزایش می‌دهد و آن‌ها را به مقصدی برای کسانی که به حریم خصوصی در امور مالی دیجیتال اهمیت می‌دهند، بدون به خطر انداختن ایمنی تبدیل می‌کند.

با عمیق‌تر شدن AI در زندگی ما، درخواست آلتمن برای حفاظت‌های بهتر به ما یادآوری می‌کند که دوباره در مورد آنچه به اشتراک می‌گذاریم فکر کنیم—و به آینده‌ای فشار می‌آورد که در آن اعترافات دیجیتال ما رازهای ما را به اندازه هر انسان دیگری ایمن نگه می‌دارد.

ممکن است شما نیز علاقه‌مند باشید

اشتراک‌گذاری
copy

سودده‌ها

جامعه
iconiconiconiconiconiconicon

پشتیبانی مشتری@weikecs

همکاری تجاری@weikecs

معاملات کمّی و بازارسازیbd@weex.com

خدمات VIPsupport@weex.com