|

مردم جهان به چت‌جی‌بی‌تی وابسته شدند

«سم آلتمن» می‌گوید اینکه یک کاربر بخواهد کمتر از ChatGPT استفاده کند، اما نتواند، اتفاق خوبی نیست.

مردم جهان به چت‌جی‌بی‌تی وابسته شدند

به گزارش گروه رسانه‌ای شرق،

«سم آلتمن» می‌گوید اینکه یک کاربر بخواهد کمتر از ChatGPT استفاده کند، اما نتواند، اتفاق خوبی نیست.

«سم آلتمن»، مدیرعامل OpenAI، در اظهارنظری نگران‌کننده اعلام کرد که با وجود پتانسیل‌های مثبت، از روند روبه‌رشد استفاده مردم از ChatGPT به عنوان «درمانگر یا مربی زندگی» و اعتماد آنها به این چت‌بات برای گرفتن مهم‌ترین تصمیمات زندگی‌شان، احساس ناراحتی می‌کند.

«سم آلتمن» در توییتی مفصل که آن را «تفکرات فعلی» خود و نه موضع رسمی OpenAI خواند، به یک پدیده روبه‌رشد اشاره کرد: «بسیاری از مردم از ChatGPT به عنوان نوعی درمانگر یا مربی زندگی استفاده می‌کنند، حتی اگر خودشان اینگونه توصیفش نکنند.»

 او ضمن تأیید اینکه این موضوع می‌تواند «واقعاً خوب» باشد و بسیاری هم‌اکنون نیز از آن ارزش دریافت می‌کنند، جنبه تاریک‌تر آن را نیز آشکار کرد. او گفت این رابطه در صورتی ناخوشایند است که «کاربران رابطه‌ای با ChatGPT داشته باشند که در آن فکر کنند پس از صحبت‌کردن حالشان بهتر می‌شود، اما ندانسته از حال‌ خوب واقعی در بلندمدت دور می‌شوند.»

او همچنین ایجاد وابستگی را یک خطر دیگر دانست و گفت: «خوب نیست اگر یک کاربر بخواهد کمتر از ChatGPT استفاده کند اما احساس کند که نمی‌تواند.»

نظرات سم آلتمن درباره اعتماد مردم به ChatGPT

آلتمن فاش کرد که شرکت OpenAI حدود یک سال است که درحال ردیابی دقیق «حس وابستگی» کاربران به مدل‌های هوش مصنوعی خاص است. او اعتراف کرد که این وابستگی، «متفاوت و قوی‌تر» از وابستگی به سایر فناوری‌های گذشته است. او به عنوان یک نمونه بارز، به واکنش‌های منفی پس از عرضه GPT-5 و جایگزینی مدل محبوب GPT-4o اشاره کرد. بسیاری از کاربران از لحن خشک و غیرخلاقانه مدل جدید شکایت کرده‌اند و خواستار بازگرداندن مدل قدیمی‌تر شدند. آلتمن در توییت خود، حذف ناگهانی مدل‌های قدیمی را که کاربران به آنها وابسته بودند، یک «اشتباه» خواند.

آلتمن در بخشی از اظهاراتش به مسئولیت‌پذیری در قبال کاربران آسیب‌پذیر پرداخت:

«مردم از فناوری، از جمله هوش مصنوعی، به روش‌های خودتخریبی استفاده کرده‌اند. اگر یک کاربر در وضعیت روانی شکننده‌ای قرار داشته باشد و مستعد توهم باشد، ما نمی‌خواهیم هوش مصنوعی آن را تقویت کند.»

او اذعان کرد که اگرچه اکثر کاربران می‌توانند مرز میان واقعیت و داستان را تشخیص دهند، اما درصد کمی قادر به این کار نیستند.

آلتمن پیشتر نیز در یک پادکست، به یک خطر دیگر اشاره کرده بود: چالش‌های حقوقی. او هشدار داد که اگر کاربری از ChatGPT برای گفتگوهای حساس و درمانی استفاده کند، ممکن است در آینده و در جریان یک دعوای حقوقی، شرکت OpenAI مجبور به ارائه متن آن مکالمات به دادگاه شود.

آلتمن آینده‌ای را پیش‌بینی می‌کند که در آن میلیاردها نفر برای مهم‌ترین تصمیمات زندگی خود با هوش مصنوعی مشورت خواهند کرد. او می‌گوید اگرچه این چشم‌انداز او را «ناراحت» می‌کند، اما معتقد است که جامعه و OpenAI باید راهی برای تبدیل این پدیده به یک نتیجه مثبت پیدا کنند.

 

منبع: دیجیاتو

آخرین اخبار جهان را از طریق این لینک پیگیری کنید.