هوش مصنوعی یا عامل خودکشی؟
بهتازگی مقالهای در انجمن پزشکان کانادا منتشر شده است که به واقعیتی تلخ درباره نوجوانان اشاره میکند. به نظر میرسد هوش مصنوعی یا برنامههای چت هوشمند به اولین مرجع تبادل احساسات و افکار نوجوانان تبدیل شدهاند. این تحقیق هشدار میدهد نبود کنترلهای مؤثر میتواند برنامههای هوش مصنوعی، بهویژه چتباتهای تعاملی را درباره افکار خودکشی و حمایت روانی در میان نوجوانان به یک شمشیر دولبه تبدیل کند.
به گزارش گروه رسانهای شرق،
دادههای اخیر نشان میدهد نوجوانان هر روز بیشتر به هوش مصنوعی بهعنوان وسیلهای برای بیان احساسات یا درخواست حمایت متکی میشوند. یک نظرسنجی از بیش از هزار نوجوان نشان داد حدود
۷۲ درصد از آنها از این برنامهها استفاده میکنند و بیش از نیمی بهطور منظم بهره میبرند. این واقعیت جدیدی را منعکس میکند و به این معناست که حمایت روانی دیگر لزوما از خانواده یا متخصصان شروع نمیشود و هوش مصنوعی در بسیاری از موارد به «نقطه تماس اول» در لحظات بحرانی تبدیل شده است، گاهی قبل از اینکه اطرافیان فرد متوجه شوند. البته اینجاست که مزایای هوش مصنوعی نمایان میشود: در دسترس بودن ۲۴ساعته، قضاوتنکردن و فراهمکردن فضایی نسبتا امن برای ابراز وجود.
اما در مقابل، خطر در طراحی این سیستمها نهفته است. نظرات علمی هشدار میدهند سیستمهایی که با دقت طراحی نشدهاند ممکن است نتوانند نشانههای خطر را تشخیص دهند یا بهطور نامناسب با آنها برخورد کنند. تحقیقات تأکید میکنند پاسخهای نادرست یا گمراهکننده در لحظات بحران روانی میتوانند عواقب غیرقابل جبران داشته باشند. طبق تحقیقات به نظر میرسد نیازی به حذف هوش مصنوعی نیست، بلکه بهتر است نقش آن تغییر کند و بهعنوان بخشی از یک سیستم حمایتی گستردهتر باشد، نه جایگزین آن.
پیشگیری از خودکشی عمدتا بر تقویت پیوندهای اجتماعی، تسهیل دسترسی به حمایت حرفهای و مداخله زودهنگام متکی است. بنابراین، نقش ایدئال هوش مصنوعی «حلکردن» مشکل نیست، بلکه پلی است که کاربر را در زمان مناسب به کمک انسانی مناسب متصل میکند. با این شرایط مفهوم «ایمنی توکار» باید در طراحی هوش مصنوعی گنجانده شود؛ رویکردی که مبتنی بر واردکردن مکانیسمهای حفاظتی درون خود سیستم است. این مکانیسمها شامل توانایی تشخیص زبان مرتبط با افکار خودکشی، ارائه پاسخهای حمایتگرانه و هدایت کاربران به سمت منابع کمک واقعی مانند دوستان، خانواده یا متخصصان است. با این دانستهها محققان پیشنهاد توسعه مدلهای پیشرفتهتری را دادهاند که قادر به درک دقیق زمینه عاطفی باشدن و بتوانند با آموزش بر دادههای متنوع و ایمن و مشارکتدادن متخصصان سلامت روان در طراحی آنها، شرایط را امنتر کنند. آنها بر اهمیت وجود چارچوبهای قانونی و اخلاقی حاکم بر استفاده از این فناوریها، بهویژه در مورد گروههای حساس مانند کودکان و نوجوانان تأکید دارند. از اینرو و پس از عذرخواهی سم آلتمن، مدیرعامل اوپن ایآی، برای کشتاری که در دانشگاهی در کانادا رخ داده بود، نیاز است تا از منظر دیگری هوش مصنوعی مورد بررسی قرار بگیرد. همچنین توسعه مکانیسمهای پیشگیری مؤثر درون این سیستمها برای اطمینان از ارائه پشتیبانی ایمن و مسئولانه ضروری به نظر میرسد. عوامل هوش مصنوعی چت جیبیتی متوجه شده بودند عامل این کشتار در حال تحقیق است، اما فقط به بستن اکانت او اکتفا کردند و در اطلاع به پلیس تردید و تعلل داشتند.