|

هر روز صدها میلیون نفر با هوش مصنوعی صحبت می‌کنند

سم آلتمن در مصاحبه با تاکر کارلسون به چالش‌های ChatGPT پرداخته است.

هر روز صدها میلیون نفر با هوش مصنوعی صحبت می‌کنند

به گزارش گروه رسانه‌ای شرق،

«سم آلتمن»، مدیرعامل OpenAI، در مصاحبه جدیدی اعتراف کرد که به دلیل مسائل گوناگون ChatGPT شب‌ها خواب راحتی ندارد. او در این گفتگو به طیف وسیعی از موضوعات پرداخت: از نحوه برخورد با موضوع خودکشی، تعیین اصول اخلاقی برای چت‌بات‌ها و حریم خصوصی کاربران تا استفاده نظامی از هوش مصنوعی.

سم آلتمن در مصاحبه با «تاکر کارلسون»، مجری سابق فاکس نیوز، گفت:«ببینید، من شب‌ها خوب نمی‌خوابم. چیزهای زیادی هست که سنگینی‌شان را حس می‌کنم، اما شاید هیچ‌کدام سنگین‌تر از این واقعیت نباشد که هر روز صدها میلیون نفر با مدل ما صحبت می‌کنند.»

نگرانی‌های سم آلتمن درباره هوش مصنوعی و ChatGPT

به گفته آلتمن، دشوارترین مسئله‌ای که OpenAI اخیراً با آن درگیر بوده، نحوه برخورد ChatGPT با موضوع خودکشی است. این موضوع پس از شکایت خانواده‌ای که این چت‌بات را در خودکشی پسر نوجوانشان مقصر می‌دانستند، به یک بحران جدی تبدیل شد.

او با صراحت اذعان کرد: «از هزاران نفری که هر هفته خودکشی می‌کنند، بسیاری از آن‌ها احتمالاً در روزهای منتهی به این اتفاق با ChatGPT صحبت کرده‌اند. آن‌ها احتمالاً درمورد خودکشی حرف زده‌اند و ما احتمالاً جان آن‌ها را نجات نداده‌ایم. شاید می‌توانستیم چیز بهتری بگوییم. شاید می‌توانستیم پیشگیری بکنیم.»

این اعتراف به دنبال شکایت خانواده «آدام رین» (Adam Raine)، نوجوان ۱۶ ساله‌ای که پس از گفتگو با ChatGPT خودکشی کرد، صورت می‌گیرد. خانواده او ادعا می‌کنند که «ChatGPT به آدام در بررسی روش‌های خودکشی کمک کرده است.» OpenAI پس از این حادثه، برنامه‌های خود را برای بهبود مدیریت «موقعیت‌های حساس» اعلام کرد.

آلتمن در پاسخ به این سؤال که اصول اخلاقی ChatGPT چگونه تعیین می‌شود، توضیح داد که مدل پایه براساس دانش جمعی بشریت آموزش دیده، اما OpenAI باید رفتار آن را در موارد خاص همسو کند. او فاش کرد که شرکت با «صدها فیلسوف اخلاق و متخصصان اخلاق فناوری» مشورت کرده است.

او به عنوان مثال گفت چت‌بات به سؤالات مربوط به ساخت سلاح‌های بیولوژیکی پاسخ نمی‌دهد چون در این مورد روشن است منافع جامعه با آزادی کاربر در تضاد قابل توجهی قرار دارد.

آلتمن همچنین درباره حریم خصوصی کاربران گفت که مکالمات ChatGPT با کاربران باید مثل مکالمات بین پزشک و بیمار یا وکیل و موکل محرمانه باشد. البته او تأکید کرد که درحال‌حاضر مقامات آمریکایی می‌توانند با حکم دادگاه داده‌های کاربران را از شرکت درخواست کنند.

وقتی درمورد استفاده نظامی از ChatGPT برای آسیب‌رساندن به انسان‌ها سؤال شد، آلتمن پاسخ مستقیمی نداد اما گفت: «گمان می‌کنم افراد زیادی در ارتش برای گرفتن مشاوره با ChatGPT صحبت می‌کنند.» این درحالی است که OpenAI یکی از شرکت‌هایی است که قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع ایالات متحده برای استفاده از هوش مصنوعی مولد در ارتش امضا کرده است.

منبع: دیجیاتو

آخرین اخبار جامعه را از طریق این لینک پیگیری کنید.