سه آینده متصور برای هوش مصنوعی
جنجالها و نویدهای هوش مصنوعی، نوعی سردرگمی و عدم قطعیت درباره آینده بشر ایجاد کرده است. آیا میتوانیم به هوش مصنوعی اعتماد کنیم؟ آیا هوش مصنوعی مشاغل ما را از ما خواهد گرفت؟ آیا یک برنامه مبتنی بر هوش مصنوعی، امنیت دارد؟
به گزارش گروه رسانهای شرق،
شرایط کنونی هوش مصنوعی و پارادکسهای اجتماعی آن، میتواند توسط مورخی در آینده این گونه توصیف شود: «بهترین روزها بود و بدترین ایام؛ دوران خرد بود و زمانه نادانی؛ عصر ایمان بود و فصل بیاعتقادی؛ هنگامه روشنایی بود و موسم تاریکی؛ بهار امید بود و زمستان یاس و ناامیدی؛ همه چیز پیش روی ما بود؛ هیچ چیز پیش روی ما نبود؛ همه ما مستقیماً به بهشت میرفتیم؛ همه ما مستقیماً به سمت دیگری میرفتیم.» این جملات برای شما آشنا نیست؟ اینها جملات آغازین رمان «داستان دو شهر» است که چارلز دیکنز در سال 1859 به رشته تحریر درآورد.
جنجالها و نویدهای هوش مصنوعی، نوعی سردرگمی و عدم قطعیت درباره آینده بشر ایجاد کرده است. آیا میتوانیم به هوش مصنوعی اعتماد کنیم؟ آیا هوش مصنوعی مشاغل ما را از ما خواهد گرفت؟ آیا یک برنامه مبتنی بر هوش مصنوعی، امنیت دارد؟ آیا باید در شرکتهای هوش مصنوعی سرمایهگذاری کنیم؟ آیا باید شرکت نوپایی را در حوزه هوش مصنوعی تاسیس کرد؟ آیا هوش مصنوعی باعث افزایش جرائم سایبری خواهد شد؟ آیا هوش مصنوعی قدرت ما را در شناخت حقیقت کاهش خواهد داد؟ آیا هوش مصنوعی سرنوشت بشریت را به خطر خواهد انداخت؟ آیا سازمانهای تبهکار یا مستبدان تمامیتخواه از هوش مصنوعی برای در دست گرفتن قدرت استفاده خواهند کرد؟ آیا هوش مصنوعی نیازمند تنظیمگری است؟ خلاصه اینکه، آینده چه ارمغانی برای ما خواهد آورد؟
سه آینده متصور
در اغلب گمانهزنیها، سه چشمانداز مختلف از آینده هوش مصنوعی وجود دارد:
• تکینگی (Singularity)، زمانی که هوش مصنوعی از هوش آدمی فراتر رفته، رشد فناوری غیرقابل کنترل شده و انسانها با ماشینهای فوقهوشمند ادغام میشوند؛
• آرمانشهری با خودکارسازی همه جانبه و فراگیر؛
• طیف گستردهای از عوامل خودمختار هوش مصنوعی که خدمات مفیدی را برای بشریت فراهم میآورند.
ما این سه آینده را «ادغام»، «آرمانشهر» و «هوش مصنوعی عاملی» (Agentic AI) مینامیم.
این مقاله تاملی است در باب این سه آینده متصور. در حالی که تحقق آرمانشهر و ادغام بعید به نظر میرسند، تکینگی خودکارسازی هم یک تهدید ویرانگر خواهد بود.
ادغام
ری کورزویل (Ray Kurzweil) در کتاب معروف خود با نام «تکینگی نزدیک است» (The Singularity is Near) که در سال 2006 منتشر شد، تکینگی را این گونه تعریف میکند: «رویدادی در افق هوش مصنوعی، هنگامی که ماشینهای فوقهوشمند ظهور کرده و جایگزین انسان میشوند.» جان کلام بحث او این است که فناوری اطلاعات کارایی خود را طی قرن گذشته هر دو سال دو برابر کرده است. در نتیجه، قانون مور (Moore) از عصر ماشینهای محاسب در سال 1900 تا کنون صادق بوده و در عصر فناوریهای فراسیلیکونی نیز کماکان صادق خواهد بود. با برونیابی این روند، او پیشگویی میکند که حوزه رایانش، در سال 2029 آزمون تورینگ را با موفقیت پشت سر خواهد گذاشت (شایان ذکر است که در آزمون تورینگ، ماشینها چنان رفتار هوشمندانهای خواهند داشت که از رفتار انسان قابل تمیز دادن نخواهد بود)؛ در پایان سال 2030 نانوروباتهای تعمیرکننده و ارتباطی که با گردش خون انسان حرکت میکنند را فعال خواهد کرد؛ در نهایت و در سال 2045، به تکینگی دست خواهد یافت. این چشمانداز به شکل چشمگیری قانعکننده و در عین حال، عمیقاً نگرانکننده است. تصور یک موجود فوقهوشمند که نسل انسان را منقرض میکند، آسان است چرا که آنها را موجوداتی پریشان، جایزالخطا و ضعیف تصور میکند.
ری کورزویل در کتاب جدیدش، با عنوان «تکینگی نزدیکتر است» (The Singularity is Nearer) که در سال 2023 به چاپ رسید، ایده خود را به شکل جذابتری مطرح کرده است: «تکینگی به معنی در دست گرفتن کارها توسط ماشینهای فوق هوشمند نبوده، بلکه به معنی ادغام کامل ماشینها و انسانها خواهد بود. به جای از بین بردن یا جایگزین شدن انسانها، این تکینگی از ظهور نوعی جدیدی از ابرانسانها را جشن خواهد گرفت.»
ایدههای کورزویل جنجالبرانگیزی هستند. او بر این باور است که تا سال 2029 ماشینها به هوش عمومی مصنوعی (Artificial General Intelligence) نزدیک شده و دشوارترین نوع آزمون تورینگ را پشت سر گذاشته، به نحوی که ماشین به تمامی حوزههای شناختی بشر مسلط خواهد شد. پیشگویی او بر سه فرض سوالبرانگیز استوار است: اول اینکه، مدلهای زبانی بزرگ (LLMs) میتوانند به هوش عمومی مصنوعی تعمیم یابند، بر خلاف اینکه ذاتاً مستعد توهم، داستانسرایی و سایر واکنشهای غیرقابل اعتماد هستند. دوم اینکه، وقتی رشد نمایی یک فناوری قلمرو کاربردی خود را اشباع میکند، فناوری دیگری در انتظار است تا این رشد را ادامه دهد. مورد سوم و جدیتر، این فرض تلویحی است که هوش، رایانشپذیر (قابل رایانش و محاسبه توسط ماشین) است. حوزههایی از دانش مرتبط با هوش وجود دارند که نمیدانیم آن را چگونه باید توصیف و سنجش کرده تا رایانههای بتوانند آن را پردازش کنند؛ مانند مهارتهای عملکردی و آنچه آن را «بافتار» مینامیم که خود دربرگیرنده «عقل سلیم» (Common Sense) و «پیشینه بدیهی» (Background of Obviousness) است.
قانون مور صرفاً مبنای پیشبینی روند تکامل هوش عمومی مصنوعی نیست. ماشینهای هوش مصنوعی را میتوان به شکل سلسله مراتبی از توان یادگیری فزآینده سازماندهی کرد. قدرتمندترین ماشین هوش مصنوعی امروز ترکیبی است از هوش مصنوعی مولد و یادگیری تقویتی (Reinforcement Learning). متاسفانه شواهد اندکی دال بر قرابت و نزدیکی این موضوع به هوش عمومی مصنوعی وجود دارد. بنابراین، سلسله مراتب ماشینی هیچ بینش مفید و سازندهای از حرکت به سوی تکینگی بدست نمیدهد.
آرمانشهر
گونهای متفاوت از آینده توسط سوهن (S. M. Sohen) در کتابش با عنوان «آخرین هوش مصنوعی بشریت» (The Last AI of Humanity) ارائه شده است. ساختار سلسله مراتبی پیشنهادی او عملاً شامل چهار سطح است که در هر کدام گستره خودکارسازی توسط هوش مصنوعی افزایش یافته و در بالاترین سطح دولت مبتنی بر هوش مصنوعی محقق میشود. او استدلال میکند که این سطوح از خودکارسازی غذا، انرژی، کالاها و نیازهای اساسی بشر را به وفور و با هزینهای نزدیک به صفر تولید خواهد کرد. در آرمانشهری که او توصیف میکند، هیچ کمبودی، هیچ فقری و هیچ نابرابری وجود نخواهد داشت. این آرمانشهر با خودکارسازی هوش مصنوعی و بدون هوش عمومی مصنوعی دستیافتنی است. نماد این جهان، دولتها و سازمانهایی «بدون انسان» خواهند بود. شبکههای تامین اجتماعی و درآمد پایه همگانی، ناامنی جهانی ناشی از کمبود شغل را از بین خواهد برد. او نگران این نیست که امکان دارد گروههای تبهکار یا دولت بتواند کنترل ماشینهای هوش مصنوعی را در دست گرفته و از آن برای فشار بر بقیه بشریت استفاده کند، یا دادن پول رایگان به افراد ممکن است باعث ایجاد تورم گسترده شود. در نگاه اول، این مدل ممکن است خیلی مضحک به نظر برسد. ولی این یک مسیر بسیار معقول برای رسیدن به یک تکینگی متفاوت است: انقیاد انسان توسط ماشینهای بیملاحظه و بیتفاوت. جای تعجب نیست که تا چه اندازه خودکارسازی در هر کدام از سطوح پیشنهادی سوهن نفوذ کرده است.
در سطح یک مدل سوهن، خودکارسازی برنامههای کاربردی کسبوکاری سالها است که استفاده میشود. مثالهای اولیه مربوط به اوایل دهه 1990 میلادی است: برنامههای خودآموز فیلترکننده هرزنامهها یا تکمیلکننده خودکار ورودیها. در این دوران، شرکت مایکروسافت نرمافزار کلیپی (Clippy) را به عنوان دستیاری هوشمند برای محل کار، به بازار عرضه کرد. از آنجا که بسیاری از کاربران دریافتند این نرمافزار استراق سمع کرده، کاربری آن آزاردهنده است و گاهی هم توصیههای نادرستی میکند، شرکت تولید و توسعه آن را متوقف کرد. بعد از آن، مایکروسافت نرمافزار کوپایلوت (Copilot) را تولید و روانه بازار کرد؛ دستیار جدیدی مبتنی بر فناوری مدلهای زبانی بزرگ. این ابزار میتواند خلاصههایی مستدل را از رایانامهها و جلسات تهیه کرده، به رایانامهها پاسخ داده، نسخه پیشنویس اسناد را ویرایش کند و حتی آموزش هم ارائه دهد. مادامی که کاربران این ابزار را مفید و قابل اعتماد ارزیابی کنند، در معرض دید بوده و استفاده خواهد شد.
در سطح دو مدل سوهن، فرآیندهای کسبوکاری که با ابزارهای نرمافزاری توانمند شده، مانند ردیابی درخواستهای مشتری، تقریباً قدیمی و منسوخ شده و سامانههای رایانهای امکان توسعه گسترده کسبوکارها را در سطح جهانی فراهم کرده است. از دهه 1990 میلادی، خودکارسازی فرآیندهای سازمانی (مانند استخدام یا سفارش یا هر چیزی که بر فرم مبتنی بود) به شکل فزآیندهای عمومیت یافت. خودکارسازی امکان میداد که فرآیندها با تعداد افراد کمتری مدیریت شوند. با این حال، امروزه با رشد فزآینده فضاهای کاری، خودکارسازی فرآیند با نظارت مستمر کارمندان به منظور پایش پیشرفت آنها در نیل به اهداف بهرهوری، عجین شده است. در واقع، خودکارسازی گردشکار کدگذاری قواعد پیچیده کسبوکاری در ماشین است؛ کاربرانی که موفق به انطباق خود با ماشین نمیشوند، لاجرم نمیتوانند خدمتی هم دریافت کنند. برخی از سامانههای گردشکار کارمندان را با مجموعهای از ابزارهای پیچیده و گیجکننده که به شکل خوبی هم تعامل نمیکنند، مواجه کرده است. سامانههای گردشکاری اغلب باعث از بین رفتن کارها نمیشود. آنها فقط چیدمان نحوه انجام کار را تغییر داده، به نحوی که بخش کمتری از کار توسط دفتر خدماتی انجام شده و بیشتر آن توسط کاربر. به تبع آن، بهرهوری دفتر خدماتی بالا رفته و بهرهوری کاربران کاهش مییابد. بر خلاف آنچه بسیاری باور دارند، سامانههای گردشکاری بهرهوری را در مجموع افزایش نمیدهد.
در سطح سه مدل سوهن، خودکارسازی در سطح سازمانی به سرعت در حال افزایش است. قابلتوجهترین شکل آن، حضور روباتهایی در واسط کاربری بسیاری شرکتها و سازمانهای دولتی است. این روباتها فقط امکان اجرای تراکنشهای محدودی را میدهند، بدون هیچ استثنا یا راهی برای درخواست استثنا. ارایه خدمات مشتریان عموماً افتضاح است. برای بسیاری از شرکتها یافتن چگونگی تماس با واحد خدمات مشتریان دشوار است. برخی شرکتها، مانند فیسبوک، در مجموع هیچ گونه خدمات مشتری را ارائه نمیدهند. اغلب آنها یک فرم رایانهای یا یک چتبات را، با هدف پرهیز از تماس کاربران با عوامل انسانی، طراحی کردهاند. هنگامی که فرد در نهایت از طریق روبات به یک عامل انسانی متصل میشود، عامل دستورالعملی را دنبال کرده که مشکلی را حل نمیکند. خلاصه اینکه، ارائه خدمات مشتری به شکلی خودکار، با انتقاداتی در سطح جهانی روبرو شده، چرا که بیدقت، غیرقابل انعطاف و بیملاحظه است. بعید است این شرایط بهبود یابد، چرا که بسیاری از شرکتها به دنبال کاهش یا حذف مراکز تماس پرهزینه خود هستند.
هم چنانکه خودکارسازی به سمت خدمات ابری گرایش بیشتری پیدا میکند، نشت دادهها هم از حیث تعدادی و هم از حیث محدوده و گستره افزایش مییابد. هنگامی که اطلاعات هویتی کاربر به سرقت رفت، تا زمانی که بازیابی نشود (که این خود ممکن است زمان زیادی لازم داشته باشد)، کاربر امکان دریافت خدمات را نخواهد داشت. گنجینههای عظیمی از دادههای شخصی که توسط شرکتها جمعآوری شده، به واسطه این نشتها منتشر خواهد شد. باجافزارها همچنان به رشد بیسابقه خود ادامه میدهند. فرآیند بازیابی اغلب پرهزینه بوده و به کندی انجام میشود چرا که نیاز است سامانه و پایگاهدادهها از نو ساخته شود. این در حالی است که به لطف خودکارسازی، متخصصین فناوری اطلاعات معدودی برای انجام این کارها وجود خواهند داشت.
در سطح چهار مدل سوهن، سیاست، دو قطبی شدن و انتخابات تحت فشار شدید هستند، چرا که اطلاعات نادرست تولید شده توسط هوش مصنوعی و نیز دروغهای تکذیب نشده، اعتماد عمومی را در همه سطوح کاهش داده است. «بروکراسی عریان» که پشت واسطهای کاربری وب پنهان شده، دیگر یک شوخی نیست. این گونه به نظر میرسد که رضایتمندی مشتری دغدغه هیچ کسی نیست یا کسی مسئولیت آن را بر عهده نمیگیرد.
روح خودکارسازی به خوبی در قوه مقننه تثبیت شده، قوهای که به قانونگذاری به عنوان تعیین مشخصه آلگوریتمهایی برای اجرای برنامههای اجتماعی نگاه میکند. اغلب لوایح عناوین سادهای دارند ولی جزییات آن چندین هزار صفحه است که چگونگی واکنش سازمان مجری را به هر احتمال قابل تصور شرح میدهد. دولتها از ابزارهای هوش مصنوعی برای حفظ «اعتبار اجتماعی» و تسلیم کردن افراد، وقتی که به نفع قدرت، کنترل و ثبات آنها است، استفاده میکنند. هم چنانکه خودکارسازی هوش مصنوعی گسترده و فراگیر میشود، سامانههای هوش مصنوعی کنترل شبکههای بزرگی را (مانند سازمانها) در دست خواهند گرفت؛ جایی که در نبود بینشهای انسانی، اهداف خود را پایهگذاری کرده و در پی کنترل و بهینه کردن بخشهای جمعیتی برآمده و افرادی را که با آن همراه و موافق نباشند، حذف خواهند کرد.
خودکارسازی عمیقتر، تا به حال باعث ایجاد ناآرامیهای اجتماعی و دوقطبی شدن جامعه شده است. این امر انسان را به واسطه از دست دادن تفکر نقادانه و عدم توانایی در رقابت، کودن میکند.
هوش عاملی
دنیای کسبوکار به تکینگیهای وجودی در آینده بلندمدت، علاقه چندانی ندارد. تمرکز کسبوکار بر روی کاربردهای عملی هوش مصنوعی است: برنامههای هوش مصنوعی که کارها را بهتر از انسان انجام میدهند، کمک میکنند تا او از کارهای طاقتفرسا خلاصی یافته و شرایطی را فراهم آورد که بتواند بیشتر دقت خود را بر کارهایی صرف کند که ماشین نمیتواند آنها را به خوبی انجام دهد. این تمرکز گاهی «هوش عاملی» نامیده میشود. منظور، عاملهای خودمختاری هستند که با یکدیگر و با انسانها در تعامل هستند. به گفته جنسن هانگ (Jensen Huang)، مدیرعامل شرکت انویدیا (Nvidia)، این نوع هوش مصنوعی شبیه ماشین زمان است؛ میتواند آیندهای را خلق کند که در آن کارهای زیادی ظرف چند ثانیه انجام میشود.
ولی ارزش هوش مصنوعی بسی بیشتر از انجام سریعتر کارها است. در کتاب «شروع دوباره هوش مصنوعی» (Rebooting AI)، گری مارکوس (Gary Marcus) و ارنست دیویس (Ernst Davis) استدلال میکنند که بسیاری از برنامههای کاربردی که قصد داشتند در این مسیر حرکت کنند، شکست خوردهاند و چون از امنیت و قابلیت اطمینان لازم برخوردار نیستند، همچنان شکست خواهند خورد. استدلال آنها این است که مسیر هوش عمومی مصنوعی بستگی به بکارگیری مهندسی نرمافزار پیشرفتهتری دارد که بتواند هوش مصنوعی قابل اعتماد را محقق کند. این مسیر ممکن است دشوارتر از آن چیزی باشد که پیشبینی میکنیم. هر چند ابعاد اعتماد در تحقق مشخصات و قابلیت اطمینان را میتوان از طریق مهندسی خوب و مناسب بدست آورد، ولی ابعاد اعتماد در مراقبت را نمیتوان. ماشینها به هیچ چیز اهمیت نداده و نمیتوانند بدهند. این انتظار که ماشینها بتوانند روابطی با سطح اعتماد بالا را بدست آوردند، ممکن است عملاً غیرممکن باشد.
شیوههای امروزی پیادهسازی سامانههای هوش مصنوعی فهرستی طولانی از نگرانیهای کوتاهمدت را ایجاد کرده است. این شیوهها، ریسک تکینگی خودکارسازی هوش مصنوعی را افزایش داده است:
• تمایل شدید به هیاهو و انسانانگاری: این منجر به طرح ادعاها و نیز وعدههای اغراقآمیز شده و ریسک بروز واکنشهای منفی و ترکیدن حباب فعلی و در نتیجه فرا رسیدن زمستان دیگری را برای هوش مصنوعی به همراه خواهد داشت.
• ارائه تعریفی از بهرهوری که سرعت انجام کار را بر تقویت قابلیتهای انسانی ترجیح میدهد. در این صورت است که هوش مصنوعی جای کار انسانی را گرفته، به جای آنکه آن را تقویت و تکمیل کند.
• جدال بر سر مالکیت معنوی محتواهایی که از اینترنت به منظور آموزش مدلهای هوش مصنوعی برگرفته میشود، بدون توجه به حقوق معنوی دارندگان آنها.
• پایش و نظارت بر کارمندان به منظور اجرای اهداف بهرهوری تعیین شده
• فقدان آموزشهای مورد حمایت کسبوکارها به کارمندان، به منظور آمادهسازی آنها برای مواجهه با گذارهای فناوری در آینده و کمک به افراد جابجا شده برای یافتن شغل جدید
• ذخیرهسازی دادههای حساس شرکتها و دولتها در فضای ابری، که باعث قرار گرفتن بیشتر آنها در معرض نشت اطلاعاتی شده و نیز تلفیق آنها در فرآیند آموزش مدلهای هوش مصنوعی
• دریافت و گردآوری نامحسوس دادههای مرتبط با رفتارهای کاربران، که میتواند در اختیار موسسات تبلیغاتی قرار گیرد.
• گردآوری و نگهداری فرامین کاربران توسط مدلهای زبانی بزرگ، که ممکن است حاوی دادههای حساس هم باشد.
• سوگیری در دادههای آموزشی مدلها. شرکتهای فناوری دریافتهاند که سامانههای غربالگری هوش مصنوعی متقاضیان مرد را در مقایسه با متقاضیان زن ترجیح میدهند. وبگاه ویکیپدیا، اعتراف کرده که بسیاری از ویراستاران محتوای فعال آن، جوانانی با مدرک دانشگاهی هستند که تمایلات سیاسی چپگرایانه دارند.
• کارگران با دستمزد کم و داشتن کمینه دانش میدانی، به منظور برچسبگذاری دادهها برای آموزش مدلها استخدام میشوند. نمونهای که به شکل اغراقآمیزی هم تبلیغ شده، افرادی هستند که پولیپها را در تصاویر روده بزرگ تشخیص داده و شناسایی میکنند تا از این طریق، سامانههای غربالگری سرطان روده بزرگ را که بر ابزارهای هوش مصنوعی مبتنی هستند، آموزش دهند.
• استفاده از دادههای ساختگی به منظور غلبه بر کمبود دادهای برای مدلهای زبانی بسیار بزرگتر. حجم قابل توجهی از خروجیهای تولید شده توسط مدلهای زبانی بزرگ، از قبیل خلاصهها، رایانامهها، گزارشها و نامهها هم اکنون در اینترنت وجود دارد. مدلهای زبانی بزرگ بیشتر تلاش میکنند تا خودشان را آموزش دهند تا اینکه از انسان یاد بگیرند.
• دادههای ساختگی ازدوقلوهای رقومی (Digital Twins) نامعتبر و سایر شبیهسازیهایی که ممکن است کیفیت مناسب را (از حیث دادهای) نداشته باشند.
• تولید و انتشار سریع اطلاعات نادرست و گمراهکننده در اینترنت بسیار آسان است. این گونه اطلاعات باعث دو قطبی شدن جامعه شده، ضمن آنکه به واسطه دستکاری در بینش و روحیه مردم، بر تصمیمگیریهای سیاسی و انتخاباتی آنان هم تاثیر میگذارد.
• هوش مصنوعی جوانان را اغوا میکند تا بخش زیادی از وقت خود را در فضای مجازی بگذرانند. این امر سلامت روان و توسعه اجتماعی آنها را در خطر میاندازد.
• قابلیتهای هوش مصنوعی، مانند نظارت و پایش اجتماعی، میتواند توسط دولتهای اقتدارگرا و سازمانهای جنایتکار به شکل موفقیتآمیزی مورد سوء استفاده قرار گیرد.
این شیوههای نوظهور، تضادهای دنیای رو به رشد هوش مصنوعی را تشدید کرده و روند حرکت به سوی تکینگی خودکارسازی آن را تسهیل میکند؛ شرایطی که در آن شبکهای از ماشینهای بیعاطفه و نادان، بشریت را مقهور خود خواهند ساخت. آن زمان است که چارلز دیکنز دیگر شگفتزده نخواهد شد!
منبع: این مقاله در شماره سپتامبر 2025 نشریه Communications of the ACM به چاپ رسیده است.
آخرین اخبار فناوری را از طریق این لینک پیگیری کنید.