|

هوش مصنوعی یا عامل خودکشی؟

به‌تازگی مقاله‌ای در انجمن پزشکان کانادا منتشر شده است که به واقعیتی تلخ درباره نوجوانان اشاره می‌کند. به نظر می‌رسد هوش مصنوعی یا برنامه‌های چت هوشمند به اولین مرجع تبادل احساسات و افکار نوجوانان تبدیل شده‌اند. این تحقیق هشدار می‌دهد نبود کنترل‌های مؤثر می‌تواند برنامه‌های هوش مصنوعی، به‌ویژه چت‌بات‌های تعاملی را درباره افکار خودکشی و حمایت روانی در میان نوجوانان به یک شمشیر دولبه تبدیل کند.

هوش مصنوعی  یا عامل خودکشی؟

به گزارش گروه رسانه‌ای شرق،

داده‌های اخیر نشان می‌دهد نوجوانان هر روز بیشتر به هوش مصنوعی به‌عنوان وسیله‌ای برای بیان احساسات یا درخواست حمایت متکی می‌شوند. یک نظرسنجی از بیش از هزار نوجوان نشان داد حدود 

۷۲ درصد از آنها از این برنامه‌ها استفاده می‌کنند و بیش از نیمی به‌طور منظم بهره می‌برند. این واقعیت جدیدی را منعکس می‌کند و به این معناست که حمایت روانی دیگر لزوما از خانواده یا متخصصان شروع نمی‌شود و هوش مصنوعی در بسیاری از موارد به «نقطه تماس اول» در لحظات بحرانی تبدیل شده است، گاهی قبل از اینکه اطرافیان فرد متوجه شوند. البته اینجاست که مزایای هوش مصنوعی نمایان می‌شود: در دسترس بودن ۲۴‌ساعته، قضاوت‌نکردن و فراهم‌کردن فضایی نسبتا امن برای ابراز وجود.

اما در مقابل، خطر در طراحی این سیستم‌ها نهفته است. نظرات علمی هشدار می‌دهند سیستم‌هایی که با دقت طراحی نشده‌اند ممکن است نتوانند نشانه‌های خطر را تشخیص دهند یا به‌طور نامناسب با آنها برخورد کنند. تحقیقات تأکید می‌کنند پاسخ‌های نادرست یا گمراه‌کننده در لحظات بحران روانی می‌توانند عواقب غیرقابل جبران داشته باشند. طبق تحقیقات به نظر می‌رسد نیازی به حذف هوش مصنوعی نیست، بلکه بهتر است نقش آن تغییر کند و به‌عنوان بخشی از یک سیستم حمایتی گسترده‌تر باشد، نه جایگزین آن.

پیشگیری از خودکشی عمدتا بر تقویت پیوندهای اجتماعی، تسهیل دسترسی به حمایت حرفه‌ای و مداخله زودهنگام متکی است. بنابراین، نقش ایدئال هوش مصنوعی «حل‌کردن» مشکل نیست، بلکه پلی است که کاربر را در زمان مناسب به کمک انسانی مناسب متصل می‌کند. با این شرایط مفهوم «ایمنی توکار» باید در طراحی هوش مصنوعی گنجانده شود؛ رویکردی که مبتنی بر واردکردن مکانیسم‌های حفاظتی درون خود سیستم است. این مکانیسم‌ها شامل توانایی تشخیص زبان مرتبط با افکار خودکشی، ارائه پاسخ‌های حمایت‌گرانه‌ و هدایت کاربران به سمت منابع کمک واقعی مانند دوستان، خانواده یا متخصصان است. با این دانسته‌ها محققان پیشنهاد توسعه مدل‌های پیشرفته‌تری را داده‌اند که قادر به درک دقیق زمینه عاطفی باشدن و بتوانند با آموزش بر داده‌های متنوع و ایمن و مشارکت‌دادن متخصصان سلامت روان در طراحی آنها، شرایط را امن‌تر کنند. آنها بر اهمیت وجود چارچوب‌های قانونی و اخلاقی حاکم بر استفاده از این فناوری‌ها، به‌ویژه در مورد گروه‌های حساس مانند کودکان و نوجوانان‌ تأکید دارند. از این‌رو و پس از عذرخواهی سم آلتمن، مدیرعامل اوپن ای‌آی، برای کشتاری که در دانشگاهی در کانادا رخ داده بود، نیاز است تا از منظر دیگری هوش مصنوعی مورد بررسی قرار بگیرد. همچنین توسعه مکانیسم‌های پیشگیری مؤثر درون این سیستم‌ها برای اطمینان از ارائه پشتیبانی ایمن و مسئولانه ضروری به نظر می‌رسد. عوامل هوش مصنوعی چت جی‌بی‌تی متوجه شده بودند عامل این کشتار در حال تحقیق است، اما فقط به بستن اکانت او اکتفا کردند و در اطلاع به پلیس تردید و تعلل داشتند.

 

برای اطلاع از آخرین اخبار و تحلیل‌ها به کانال شرق در «بله» و «روبیکا» بپیوندید.