هر روز صدها میلیون نفر با هوش مصنوعی صحبت میکنند
سم آلتمن در مصاحبه با تاکر کارلسون به چالشهای ChatGPT پرداخته است.

به گزارش گروه رسانهای شرق،
«سم آلتمن»، مدیرعامل OpenAI، در مصاحبه جدیدی اعتراف کرد که به دلیل مسائل گوناگون ChatGPT شبها خواب راحتی ندارد. او در این گفتگو به طیف وسیعی از موضوعات پرداخت: از نحوه برخورد با موضوع خودکشی، تعیین اصول اخلاقی برای چتباتها و حریم خصوصی کاربران تا استفاده نظامی از هوش مصنوعی.
سم آلتمن در مصاحبه با «تاکر کارلسون»، مجری سابق فاکس نیوز، گفت:«ببینید، من شبها خوب نمیخوابم. چیزهای زیادی هست که سنگینیشان را حس میکنم، اما شاید هیچکدام سنگینتر از این واقعیت نباشد که هر روز صدها میلیون نفر با مدل ما صحبت میکنند.»
نگرانیهای سم آلتمن درباره هوش مصنوعی و ChatGPT
به گفته آلتمن، دشوارترین مسئلهای که OpenAI اخیراً با آن درگیر بوده، نحوه برخورد ChatGPT با موضوع خودکشی است. این موضوع پس از شکایت خانوادهای که این چتبات را در خودکشی پسر نوجوانشان مقصر میدانستند، به یک بحران جدی تبدیل شد.
او با صراحت اذعان کرد: «از هزاران نفری که هر هفته خودکشی میکنند، بسیاری از آنها احتمالاً در روزهای منتهی به این اتفاق با ChatGPT صحبت کردهاند. آنها احتمالاً درمورد خودکشی حرف زدهاند و ما احتمالاً جان آنها را نجات ندادهایم. شاید میتوانستیم چیز بهتری بگوییم. شاید میتوانستیم پیشگیری بکنیم.»
این اعتراف به دنبال شکایت خانواده «آدام رین» (Adam Raine)، نوجوان ۱۶ سالهای که پس از گفتگو با ChatGPT خودکشی کرد، صورت میگیرد. خانواده او ادعا میکنند که «ChatGPT به آدام در بررسی روشهای خودکشی کمک کرده است.» OpenAI پس از این حادثه، برنامههای خود را برای بهبود مدیریت «موقعیتهای حساس» اعلام کرد.
آلتمن در پاسخ به این سؤال که اصول اخلاقی ChatGPT چگونه تعیین میشود، توضیح داد که مدل پایه براساس دانش جمعی بشریت آموزش دیده، اما OpenAI باید رفتار آن را در موارد خاص همسو کند. او فاش کرد که شرکت با «صدها فیلسوف اخلاق و متخصصان اخلاق فناوری» مشورت کرده است.
او به عنوان مثال گفت چتبات به سؤالات مربوط به ساخت سلاحهای بیولوژیکی پاسخ نمیدهد چون در این مورد روشن است منافع جامعه با آزادی کاربر در تضاد قابل توجهی قرار دارد.
آلتمن همچنین درباره حریم خصوصی کاربران گفت که مکالمات ChatGPT با کاربران باید مثل مکالمات بین پزشک و بیمار یا وکیل و موکل محرمانه باشد. البته او تأکید کرد که درحالحاضر مقامات آمریکایی میتوانند با حکم دادگاه دادههای کاربران را از شرکت درخواست کنند.
وقتی درمورد استفاده نظامی از ChatGPT برای آسیبرساندن به انسانها سؤال شد، آلتمن پاسخ مستقیمی نداد اما گفت: «گمان میکنم افراد زیادی در ارتش برای گرفتن مشاوره با ChatGPT صحبت میکنند.» این درحالی است که OpenAI یکی از شرکتهایی است که قراردادی ۲۰۰ میلیون دلاری با وزارت دفاع ایالات متحده برای استفاده از هوش مصنوعی مولد در ارتش امضا کرده است.
آخرین اخبار جامعه را از طریق این لینک پیگیری کنید.