|

هوش مصنوعی چه بر سر جامعه ما خواهد آورد؟

بُن می‌بریم؟

جایگزینی هوش مصنوعی با انسان‌ها در برخی از شغل‌ها می‌تواند دو جنبه متفاوت داشته باشد. از یک سو، این تکنولوژی‌ها می‌توانند بهبود‌های درخور‌توجهی در بهره‌وری و کارایی شغلی ایجاد و در برخی از وظایف به انسان‌ها کمک کنند و وابستگی آن وظایف به انسان‌ها را کاهش دهند؛ اما از سوی دیگر، این تکنولوژی‌ها می‌توانند در برخی از شغل‌ها کاملا جایگزین انسان شده و منجر به بی‌کاری و بی‌توجهی به مهارت‌های انسانی شود.

بُن می‌بریم؟

محمدجواد شاکر: هوش مصنوعی به‌عنوان یکی از پیشرفت‌های بزرگ علوم کامپیوتر و فناوری اطلاعات، در دهه‌های اخیر به‌شدت در حال توسعه و پیشرفت بوده و تأثیرات عمده‌ای بر زندگی انسان‌ها و جوامع گذاشته است. در این گزارش، به بررسی تأثیرات هوش مصنوعی بر زندگی روزمره انسان‌ها و به ویژه جایگزینی آن با انسان در موقعیت‌های مختلف شغلی و بی‌کاری احتمالی انسان‌ها در آینده می‌پردازیم. 

 

در سال‌های اخیر، هوش مصنوعی به‌سرعت وارد صنایع و حوزه‌های مختلف اقتصادی شده است. سامانه‌ها و الگوریتم‌های هوش مصنوعی با توانایی‌هایی مانند یادگیری، تحلیل داده‌ها، تشخیص الگو و تصمیم‌گیری، در بسیاری از وظایف و شغل‌ها قادر به انجام عملکردهای انسانی شده‌اند؛ برای مثال، در حوزه ارتباط با مشتریان، چت‌بات‌ها و سیستم‌های پاسخ‌گویی خودکار با استفاده از هوش مصنوعی در حال جایگزینی با انسان‌ها هستند. همچنین در حوزه حمل‌ونقل، خودروهای هوشمند بدون راننده که با استفاده از هوش مصنوعی و سیستم‌های خودران کار می‌کنند، به طور کلی می‌توانند مشاغل مرتبط با حمل‌ونقل را تغییر دهند.

جایگزینی هوش مصنوعی با انسان‌ها در برخی از شغل‌ها می‌تواند دو جنبه متفاوت داشته باشد. از یک سو، این تکنولوژی‌ها می‌توانند بهبود‌های درخور‌توجهی در بهره‌وری و کارایی شغلی ایجاد و در برخی از وظایف به انسان‌ها کمک کنند و وابستگی آن وظایف به انسان‌ها را کاهش دهند؛ اما از سوی دیگر، این تکنولوژی‌ها می‌توانند در برخی از شغل‌ها کاملا جایگزین انسان شده و منجر به بی‌کاری و بی‌توجهی به مهارت‌های انسانی شود.

در برخی از صنایع و شغل‌ها، جایگزینی هوش مصنوعی با انسان‌ها بهبود‌های درخور‌توجهی در بهره‌وری و کارایی شغلی ایجاد کرده است؛ به‌عنوان مثال، در صنعت تولید، ربات‌ها و خطوط تولید هوشمند با استفاده از هوش مصنوعی می‌توانند بهبود‌های چشم‌گیری در سرعت و کیفیت تولید داشته باشند. در حوزه مالی، الگوریتم‌های هوش مصنوعی در تحلیل داده‌های مالی و پیش‌بینی روند بازارها به افزایش سرعت و دقت تصمیم‌گیری در تجارت و خرید و فروش کمک کرده‌اند.

با این حال، جایگزینی هوش مصنوعی با انسان‌ها چالش‌ها و ریسک‌هایی را نیز به همراه دارد. یکی از چالش‌های اصلی این است که برخی از شغل‌ها قدرت‌ها و مهارت‌های انسانی مانند خلاقیت، ارتباط انسانی، تصمیم‌گیری اخلاقی و حل مسئله را می‌طلبند که هنوز قابلیت جایگزینی با هوش مصنوعی را ندارد. همچنین، جایگزینی هوش مصنوعی با انسان‌ها در برخی از حوزه‌ها می‌تواند به بی‌کاری انسان‌ها منجر شود.

این تغییرات در بازار کار و جایگزینی انسان‌ها با هوش مصنوعی می‌تواند پیامدهای اقتصادی، اجتماعی و سیاسی مختلفی به همراه داشته باشد. بی‌کاری افزایش‌یافته می‌تواند به چالش‌های اجتماعی و اقتصادی مانند کاهش درآمد، افزایش تفاوت‌های طبقاتی و کاهش تقاضا در برخی از صنایع منجر شود.

بنابراین بررسی تأثیر هوش مصنوعی بر جایگزینی انسان‌ها در شغل‌ها و بی‌کاری احتمالی در آینده یک موضوع پیچیده است که نیاز به برنامه‌ریزی، سیاست‌گذاری و توجه به تأثیرات اجتماعی و اقتصادی آن دارد. این موضوع نیازمند بررسی دقیق تکنولوژی‌های هوش مصنوعی، تأثیرات آنها در صنایع و شغل‌ها و طراحی راهبردها و سیاست‌ها برای مدیریت بهینه تغییرات در بازار کار است.

هوش مصنوعی می‌تواند تأثیرات مثبتی هم داشته باشد. پیشرفت هوش مصنوعی می‌تواند با افزایش کارایی، دقت و سرعت و کاهش خطاها، بهبود‌های زیادی را در زمینه‌های مختلف از ‌جمله بهداشت، پزشکی، علوم مواد، کشاورزی، انرژی و محیط زیست، حمل‌ونقل و... به ارمغان بیاورد. همچنین، هوش مصنوعی می‌تواند به ایجاد شغل‌های جدید و جایگزینی شغل‌های قدیمی با شغل‌های نو و فرصت‌های کسب‌وکاری تازه منجر شود. توسعه و استفاده از هوش مصنوعی نیازمند کارشناسان و متخصصان در زمینه‌های مختلف مانند علوم کامپیوتر، مهندسی، طراحی رابط کاربری، امنیت و... است که می‌تواند فرصت‌های شغلی جدیدی ایجاد کند.

برای مدیریت بهتر تأثیرات هوش مصنوعی در بازار کار و جامعه، لازم است که استراتژی‌ها و سیاست‌های مناسبی اتخاذ شود. این شامل آموزش و آماده‌سازی انسان‌ها برای تسلط بر فنون مورد نیاز در عصر هوش مصنوعی، توسعه سیستم‌های اجتماعی و حمایت از افراد تحت تأثیر جایگزینی شغلی و تنظیم سیاست‌های اقتصادی و اجتماعی است که بتوانند به جامعه کمک کنند تا با چالش‌های ناشی از پیشرفت هوش مصنوعی در آینده مواجه شود.

همچنین مسائل اخلاقی و قانونی نیز در استفاده از هوش مصنوعی در جامعه باید مورد توجه قرار گیرد. باید تضمین شود که استفاده از هوش مصنوعی با رعایت اصول اخلاقی، حقوق انسانی و حریم خصوصی انسان‌ها صورت می‌گیرد.

به طور کلی، هوش مصنوعی به‌عنوان یک فناوری پیشرفته، توانایی‌ها و چالش‌های زیادی برای جامعه انسانی به دنبال داشته است. برای بهره‌برداری از مزایا و کاهش تهدیدات آن، لازم است که تصمیم‌گیری‌ها به صورت مشترک و هماهنگ بین ذی‌نفعان مختلف، از‌ جمله افراد، سازمان‌ها، دولت‌ها و جامعه عمومی انجام شود. باید از رویکرد‌های چند‌فرهنگی بهره‌برداری کرد تا هوش مصنوعی به نحوی انعطاف‌پذیر و همراه با تقویت بشریت و ارتقای کیفیت زندگی انسان‌ها مورد استفاده قرار گیرد.

علاوه‌بر‌این، همکاری بین دانشمندان، مهندسان، فناوران، صاحبان کسب‌وکارها و سیاست‌گذاران از ضروریات استفاده هوشمندانه از هوش مصنوعی برای تأمین مصالح عمومی و توسعه پایدار جامعه است. نظارت مستمر و پایش عملکرد هوش مصنوعی، تدوین سیاست‌ها و قوانین مناسب و ایجاد سازوکارهای ارزیابی اثرات اجتماعی و اقتصادی آن، از مواردی است که در برابر کاربرد هوش مصنوعی نیازمند توجه جدی هستند.

در نهایت، هدف باید این باشد که هوش مصنوعی به‌عنوان یک ابزار قدرتمند برای بهبود زندگی انسان‌ها و حل مسائل پیچیده جامعه استفاده شود و اثرات منفی آن بر انسان‌ها و جامعه به حداقل رسانده شود.

گزارش جمع‌وجور و مختصر و مفید بالا را یک انسان ننوشته؛ بلکه هوش مصنوعی توسعه‌یافته در مؤسسه OpenAI که با نام ChatGpt شناخته می‌شود، آن را در پاسخ به این درخواست برای من نوشت:

من می‌خواهم در یک روزنامه عمومی ایران، گزارشی درباره هوش مصنوعی و تأثیر آن بر زندگی روزمره انسان‌ها و به‌ویژه جایگزینی آن با انسان در موقعیت‌های مختلف شغلی و بی‌کاری احتمالی انسان‌ها در آینده بنویسم. نظر تو درباره این موضوع چیست؟

همه‌ چیز به زبان فارسی بود، خیلی ساده و در چند خط از این سیستم مبتنی بر هوش مصنوعی خواستم درباره موضوعی که به خودش مربوط است، برایم بنویسد و او هم هیچ مضایقه‌ای نکرد. البته اگر بخواهم صادقانه بگویم، حدود ۵ تا ۱۰ درصدی در متنش دست بردم، بعضی جاها به تکرار روی آورده بود (باید بگویم چند باری از او خواستم به نوشتنش ادامه دهد و این تکرارها تا حدی ناشی از توقف نوشتن از سوی او و ادامه آن به درخواست من بود) و بعضی جاها هم نوشتار فارسی‌اش خیلی روان نبود و مجبور شدم کمی آن را ویرایش کنم؛ اما در کل نتیجه کار برایم راضی‌کننده بود و قانعم کرد آن را در ابتدای این گزارش بیاورم، هرچند بعدش با خودم فکر کردم اگر الان این هوش مصنوعی می‌تواند درباره موضوعی کلی که از او خواسته‌ام، نزدیک هزار کلمه متن شسته‌ورفته بنویسد، شش ماه یا یک سال دیگر ممکن نیست کلا در نوشتن درباره هر موضوعی هم بهتر از من باشد و هم سریع‌تر و دقیق‌تر؟ راستش پاسخ این سؤال به احتمال زیاد مثبت است و به‌همین‌خاطر، به نظر می‌رسد نویسندگی و روزنامه‌نگاری از ‌جمله مشاغلی‌ است که خطر جایگزینی انسان با هوش مصنوعی در آن به‌شدت احساس می‌شود و باید منتظر بی‌کاری‌های گسترده‌ای برای روزنامه‌نگاران و گزارش‌نویسان و تولیدکننده‌های محتواهای متنی و کپی‌رایترها و وبلاگ‌نویس‌ها باشیم.

 

ChatGPT چیست؟

ChatGPT در واقع یک بات مکالمه براساس هوش مصنوعی است که توانایی پردازش زبان‌های انسانی و فهم و تحلیل آن را دارد و بر‌اساس همین فهم و درک می‌تواند با یک انسان مکالمه کند. این بات را مؤسسه OpenAI توسعه داده؛ مؤسسه‌ای تحقیقاتی که هدف خودش را اطمینان از مفید‌بودن هوش مصنوعی عمومی (Artificial general intelligence) برای همه انسان‌ها بیان کرده است.

منظور از هوش مصنوعی عمومی، سیستم‌هایی است که به‌ طور جامعی از انسان‌ها با‌هوش‌تر بوده و به‌ طور کلی هر کار فکری‌ای را که یک انسان قادر به انجام آن است، می‌توانند اجرا کنند. در مقابل هوش مصنوعی عمومی، هوش مصنوعی محدود قرار دارد. این نوع هوش مصنوعی، صرفا بر یک کارکرد خاص متمرکز است و فعالیتی متفاوت با فعالیت تعریف‌شده برای خودش را نمی‌تواند انجام دهد. به‌عنوان مثال هوش مصنوعی‌ای که برای یک بازی رایانه‌ای توسعه یافته، تنها قادر است در همان بازی رایانه‌ای نقش ایفا کند و برای کارکردهای دیگر، به کار نمی‌آید. سیستم ترجمه گوگل یا دستیار صوتی اپل نمونه‌های دیگری از سیستم‌های هوش مصنوعی محدود هستند؛ اما هوش مصنوعی عمومی که هنوز تا دستیابی به آن فاصله داریم، می‌تواند هر نوع فعالیت فکری را که انسان قادر به انجام آن است، اجرا کند و هوشمندتر از مغز انسان فعالیت کند.

هر سیستم هوش مصنوعی، برای فعالیت نیاز به داده‌هایی دارد که براساس آنها و با شناخت الگوهای بین آنها، اصطلاحا آموزش ببیند و بعدا به کمک همین یادگیری و آموزش، داده‌های جدیدی را تولید کند. سیستم‌های هوش مصنوعی براساس الگوریتم‌های یادگیری ماشین عمل می‌کنند و از شبکه‌های عصبی برای یادگیری و تفسیر و تحلیل و استنتاج و تصمیم‌گیری بهره می‌برند. شبکه‌های عصبی با الگوگیری از نحوه عملکرد مغز انسان توسعه یافته‌اند و در سال‌های اخیر، با توجه به افزایش درخور‌توجه داده‌های در دسترس برای یادگیری سیستم‌های هوش مصنوعی و نیز رشد قدرت محاسباتی رایانه‌ها، توسعه شبکه‌های عصبی و مدل‌های یادگیری ماشین و خروجی سیستم‌های هوش مصنوعی جهش چشمگیری را تجربه کرده است.

بات ChatGPT هم برای آنکه زبان انسان‌ها را متوجه شود و بتواند با آنها مکالمات معناداری را پیش ببرد، داده‌های زیادی را در یادگیری‌اش مورد استفاده قرار داده؛ از صفحات دانش‌نامه اینترنتی ویکی‌پدیا تا کتاب‌ها و نشریات علمی و گزارش‌های خبری موجود در اینترنت. البته این بات به داده‌های بعد از سال ۲۰۲۱ میلادی دسترسی نداشته و به همین خاطر اطلاعاتش درباره وقایع اخیر ناقص است و ممکن است درباره آنها پاسخ‌های نادرستی به شما تحویل دهد.

از سوی دیگر باید توجه داشت که این بات یک موتور جست‌وجو بین هزاران هزار منبع اطلاعاتی نیست که پاسخ سؤال شما را بین آنها جست‌وجو کرده و به شما تحویل دهد، بلکه این بات الگوهای مشاهده‌شده بین منابع در دسترسش برای یادگیری را مبنا قرار داده و براساس آنها، پاسخ‌هایی را که به شما تحویل می‌دهد، خودش «تولید» می‌کند، نه آنکه از جای دیگری رونوشت بردارد و مقابل شما بگذارد. به همین خاطر اولا ChatGpt قادر نیست به شما بگوید که دقیقا پاسخش را از کدام منبع آورده و ثانیا کاملا محتمل است که در یک زمینه تخصصی، پاسخی کاملا گمراه‌کننده به شما تحویل دهد و حتی برای آن پاسخ، استدلال‌هایی هم بیاورد و روی ادعای غلطش، پافشاری کند. خلاصه اصلا آن را با گوگل اشتباه نگیرید. این بات هزاران هزار منبع اطلاعاتی را مطالعه و الگوهایی را مشاهده کرده و براساس آنها، می‌تواند در یک مکالمه شرکت کند و هم منظور شما از جملات و عباراتی را که می‌نویسد متوجه شود (اگر با زبان فارسی با او مکالمه کنید، حتی جملات محاوره‌ای را هم تا حد خوبی متوجه می‌شود) و هم در پاسخ به آنها، جملات و عبارات معنادار و متناسب با محتوای مکالمه را تولید کند، اما از آنجا که منابع در دسترسش برای یادگیری بسیار زیاد بوده، تقریبا در هر زمینه‌ای می‌تواند پاسخ شما را بدهد و درخواست‌هایتان را اجابت کند؛ از نوشتن یک مقاله در موضوعی خاص تا شعر گفتن و نوشتن قطعات موسیقی و ترجمه یک متن از یک زبان به زبان دیگر.

این بات از زمان عرضه عمومی، به سرعت در بین مردم محبوب شد و توانست در چند ماه به رکورد خارق‌العاده صد میلیون کاربر فعال ماهانه برسد؛ عددی که تیک‌تاک برای رسیدن به آن ۹ ماه زمان نیاز داشت و اینستاگرام سه سال طول کشید تا به آن برسد. انگار هیچ‌کس بدش نمی‌آید که مخاطبی با اطلاعات عمومی قابل توجه داشته باشد که بتواند با او از هر دری حرف بزند و مخاطبش نه‌تنها به حرف‌هایش گوش دهد و آنها را بفهمد که هیچ‌وقت و در هیچ زمینه و موضوعی هم حرف کم نیاورد و پرچانگی‌اش هیچ حد و مرزی نشناسد و از همه‌چیز به معنای واقعی کلمه سر درآورد.

خلاقیت مصنوعی

بات مکالمه ChatGPT تنها محصول OpenAI نیست که در سال‌های اخیر توجه زیادی را به خود جلب کرده است. Dall-E، محصول دیگر OpenAI، یک سیستم هوش مصنوعی است که می‌تواند براساس توصیف ساده‌ای که کاربر به او ارائه کرده، یک عکس یا نقاشی متناسب با آن توصیف تولید کند؛ نقاشی یا عکسی که کاملا ساختگی است و در عین حال، در بیشتر موارد بسیار شبیه به یک عکس واقعی یا یک اثر هنری تولیدشده با دستان یک انسان به نظر می‌رسد.

پروژه Dall-E می‌تواند تصاویری با کیفیت بالا، کاملا واقعی و با جزئیات حیرت‌آوری تولید کند و به معنای واقعی کلمه به مفهوم هنر انسانی طعنه بزند، چراکه خلق یک اثر هنری، نیازمند ترکیبی از توانایی، خلاقیت و حس زیبایی‌شناختی است و فراتر از قراردادن چند پیکسل کنار هم، حداقل براساس خروجی‌هایی که مشاهده می‌کنیم، Dall-E به خوبی از پس این کار برمی‌آید. البته که ChatGPT هم اگرچه محدود به متن است، اما می‌تواند شعرهایی بگوید و لطیفه‌هایی تعریف کند که نمونه‌های قبلی نداشته‌اند و واقعا از خودش آنها را ساخته تا خلاقیتش را به رخ انسان‌ها بکشد.

خروجی سیستم‌های هوش مصنوعی مانند ChatGPT و Dall-E وابسته به کاری است که کاربر از آنها می‌خواهد و خلاقیت کاربر در درخواست، می‌تواند محدوده‌های غیرقابل تصوری از خلاقیت این سیستم‌ها را فتح کند؛ به عنوان مثال کاربری از Dall-E خواسته که «دلفینی با لباس فضانوردی» را بکشد و اینجاست که دیگر تنها مراجعه به تصویرهای قبلی و در دسترس، دردی از Dall-E دوا نمی‌کند و خودش باید تصمیم بگیرد که مثلا لباس فضانوردی برای یک دلفین چگونه خواهد بود؟ نور از چه جهتی می‌تابد؟ روی سیاره‌ای که در پس‌زمینه می‌خواهد قرار دهد، چه خطوط رنگی به‌خصوصی باید باشد؟ چه رنگ‌هایی در عکس باید به کار رود تا خروجی، زیبایی ملموسی داشته باشد؟ اینها دقیقا همان تصمیماتی است که یک هنرمند هنگام کشیدن یک اثر هنری، به‌صورت خودآگاه یا ناخودآگاه باید با آنها دست‌وپنجه نرم کند و از دل آنها به تولید هنر بپردازد. در واقع تعداد بسیار زیادی تصویر و نقاشی برای یادگیری در اختیار Dall-E قرار گرفته که نظر انسان درباره زیبایی و جذابیت هرکدام از آنها مشخص بوده و از این طریق، این سیستم هوش مصنوعی توانسته الگوهایی را بین تصاویر و ذائقه زیبایی‌شناختی انسان کشف کند تا به کمک آن سلیقه انسان‌ها را بفهمد و متناسب با آن به تولید تصاویر و نقاشی‌های مختلف بپردازد.

نام Dall-E ترکیبی از نام ربات قهرمان انیمیشن Wall-E با نام هنرمند سوررئالیست اسپانیایی، سالوادور دالی است؛ از یک طرف یادآور ماشین کوچکی است که زباله‌های یک تمدن انسانی در حال فروپاشی را جارو می‌کرد و از طرف دیگر هنرمندی که تکراری‌ترین جملاتش عبارت بودند از «کسانی که نمی‌خواهند چیزی را تقلید کنند، هیچ‌چیزی تولید نمی‌کنند» و «آنچه مهم است گسترش سردرگمی است، نه ازبین‌بردن آن».

علاوه بر Dall-E سیستم‌های مبتنی بر هوش مصنوعی دیگری نیز اخیرا توسعه یافته‌اند که براساس یک توصیف کوتاه که کاربر ارائه می‌دهد، تصاویر مختلفی را تولید می‌کنند. در یکی از جالب‌ترین خروجی‌های این سیستم‌ها، عکس سلفی شخصیت‌های مشهور تاریخی بازتولید شده؛ از مسیح و حواریون و ناپلئون و چنگیز مغول و اسکندر تا گاندی و مارتین لوتر کینگ و نلسون ماندلا و چارلی چاپلین و جان اف کندی و چرچیل و آلبرت اینشتین. در پروژه خلاقانه دیگری از هوش مصنوعی خواسته شده جام جهانی فوتبال را از منظر 10 کارگردان مطرح تاریخ سینما طراحی کند؛ از آلفرد هیچکاک و کوروساوا تا استنلی کوبریک و ریدلی اسکات و تارانتینو. تصاویر تولیدشده برای هر شیفته سینمایی یادآور فیلم‌های شاهکاری است که این کارگردانان روی پرده نقره‌ای برده‌اند و در نماها و قاب‌بندی‌ها و رنگ‌بندی‌ها و دیگر جزئیات‌شان، امضای اختصاصی‌شان را به یادگار گذاشته‌اند.

آینده  مبهم و  یک هراس  واقعی

فناوری‌های جدید، همواره در کنار جذابیت‌ها و در باغ سبزهایی که نشان داده‌اند، هراس را هم به جان انسان انداخته‌اند؛ هراسی که بیش از هر چیز از ابهامی می‌آید که آینده همراه با آن فناوری در آن زیست می‌کند. هوش مصنوعی و پیشرفت‌های چند سال اخیرش و خروجی‌های خارق‌العاده سیستم‌های مبتنی بر هوش مصنوعی که هر روز در شبکه‌های اجتماعی دست به دست می‌شود، نه تنها مردم ناآشنا با پشت پرده این فناوری، بلکه خود توسعه‌دهندگان و سازندگان آن را هم در بهت و حیرت و هراس فروبرده است.

سام آلتمن، مدیرعامل OpenAI، در مصاحبه‌ای که اخیرا با abcNews داشته، از یک طرف هوش مصنوعی را بزرگ‌ترین فناوری‌ای دانسته که بشر تاکنون دست به توسعه آن زده و با کمک آن می‌تواند کیفیت زندگی خودش را به‌طور قابل ملاحظه‌ای بهبود ببخشد و از سوی دیگر این واقعیت را انکار نکرده که این فناوری، تغییرات جدی و تعیین‌کننده و البته خطرات بالقوه زیادی برای جامعه انسانی به همراه خواهد داشت. او به همین خاطر اقرار کرده که مؤسسه تحت مدیریتش، هم به مردم جامعه و هم به قانون‌گذاران دولت‌ها و حاکمیت‌ها نیاز دارد تا در توسعه این فناوری مشارکت داشته باشند و با بازخوردهایشان از اثرات منفی بالقوه آن جلوگیری کنند.

چندی پیش نیز تعدادی از شاخص‌ترین چهره‌های فناوری و هوش مصنوعی که ایلان ماسک، مدیرعامل تسلا و توییتر و SpaceX و یکی از هم‌بنیان‌گذاران OpenAI و استیو وزنیاک، هم‌بنیان‌گذار اپل از شاخص‌ترین چهره‌های بودند و تعداد زیادی از دانشمندان علوم کامپیوتر و هوش مصنوعی نیز در کنار آنها جای گرفته بودند، در یک نامه سرگشاده از آزمایشگاه‌های هوش مصنوعی خواستند حداقل تا شش ماه آینده، دست از توسعه مدل‌های هوش مصنوعی قوی‌تر از ChatGPT-4 بردارند و پیشرفت این سامانه‌ها را متوقف کنند، چراکه به عقیده آنها سیستم‌های هوش مصنوعی با هوشمندی‌ای که قابل‌رقابت با انسان‌هاست، می‌توانند خطرات بزرگی را متوجه جامعه و نسل انسان کنند و تغییر بزرگی در تاریخ حیات روی زمین به وجود بیاورند.

از نظر آنها توسعه فناوری هوش مصنوعی، باید به‌طور دقیق و با صرف منابع کافی، برنامه‌ریزی و مدیریت شود، هرچند در حال حاضر نه تنها این سطح از برنامه‌ریزی و مدیریت به چشم نمی‌خورد، بلکه در ماه‌های اخیر رقابت خارج از کنترلی نیز بین آزمایشگاه‌ها و پژوهشگاه‌های مختلف، برای توسعه و پیاده‌سازی مدل‌های پیشرفته‌تر هوش مصنوعی به راه افتاده که هیچ‌کس (حتی سازندگان آنها) نمی‌توانند پشت پرده آنها را بفهمند و خروجی آنها را پیش‌بینی یا به شکل قابل اطمینانی کنترل کنند.

به عقیده امضاکنندگان این نامه، سیستم‌های هوش مصنوعی قدرتمند و پیشرفته تنها زمانی باید توسعه یابند که مطمئن باشیم اثرات آنها در زندگی بشر مثبت و خطراتشان قابل کنترل و مدیریت است. به همین خاطر تصمیم‌گیری پیرامون توسعه آنها نباید منحصرا در اختیار مدیران و رهبران شرکت‌های فناوری باشد و مشارکت کارشناسان و پژوهشگران و صاحب‌نظران علوم دیگر نیز در این توسعه ضروری است.

آنها می‌خواهند فرایند توسعه مدل‌های پیشرفته‌تر هوش مصنوعی متوقف شود تا مجموعه‌ای از پروتکل‌های ایمنی مشترک در طراحی و توسعه سیستم‌های مبتنی بر هوش مصنوعی، تدوین شود، توسعه یابد و به‌طور هماهنگ به اجرا درآید. این پروتکل‌ها می‌تواند تحقیق و توسعه در زمینه هوش مصنوعی را روی ساختن سیستم‌هایی متمرکز کند که دقیق‌تر، ایمن‌تر، تفسیرپذیرتر، شفاف‌تر و قابل اعتمادتر باشد.

هراس از  کجا  می‌آید؟

دقیقا نمی‌دانیم آن  پشت چه  خبر  است

شاید مشکل اصلی در توسعه هوش مصنوعی از آنجا می‌آید که خیلی از اوقات، فرایندی که یک سیستم هوش مصنوعی را از مجموعه‌ای از داده‌ها به یک خروجی می‌رساند، برای ما کاملا مبهم و ناشناخته است و اصطلاحا تفسیرپذیر نیست. وقتی نمی‌دانیم سیستمی که خودمان ساخته‌ایم، دقیقا چطور کار می‌کند، پیش‌بینی خروجی‌های آن و آینده‌ای که برایمان رقم می‌زند نیز مشکل خواهد بود و احتمالا خارج از کنترل ما.

از سوی دیگر توسعه و پیشرفت هوش مصنوعی می‌تواند به اندازه‌ای برسد که خودش توانایی توسعه خودش را به دست آورد و آن موقع دیگر انسان هیچ کنترلی روی آن نداشته باشد و نتواند پیش‌بینی کند که توسعه و پیشرفت آن دقیقا به کجا ختم می‌شود.

هوش  مصنوعی از  سوگیری  داده‌هایش  رنج  می‌برد

توسعه مدل‌های هوش مصنوعی وابسته به داده‌هایی است که در اختیار آن قرار گرفته تا با مطالعه و کشف الگوهای تکرارشونده بین داده‌ها، فرایند یادگیری‌اش را پیش ببرد و بعدا به کمک آن، در موارد دیگر استدلال و استنتاج و تصمیم‌گیری کند. اما خیلی اوقات داده‌های موجود دارای سوگیری‌هایی هستند که نتیجه آن در خروجی مدل‌های هوش مصنوعی به وضوح دیده می‌شود. به‌عنوان مثال بات ChatGPT اگر در حالت عادی در یکی از آزمون‌هایی که گرایش‌های سیاسی و اقتصادی افراد را مشخص می‌کند، شرکت کند، از نظر اقتصادی چپ و از نظر سیاسی لیبرال شناخته می‌شود، اما با دستکاری داده‌های ورودی می‌توان کاری کرد که این بات یک راست اقتدارگرا باشد. همچنین در برخی مواردی که سیستم‌های هوش مصنوعی برای قضاوت و تصمیم‌گیری به کار رفته‌اند، تبعیض‌های نژادی و جنسی در خروجی آنها دیده شده است. به‌عنوان مثال یک سیستم هوش مصنوعی که قرار بود با پیش‌بینی و تخمین میزان احتمال تکرار جرم، به قضات در تعیین مدت حبس محکومان کمک کند، در موارد بسیار کمتری پیشنهاد تخفیف در مدت زمان حبس را برای محکومان سیاه‌پوست نسبت به محکومان سفیدپوست پیشنهاد داد. در مثال دیگری، ماشین استخدام آمازون، فرم‌های مربوط به متقاضیان زن را در درجات پایین‌تری نسبت به متقاضیان مرد اولویت‌بندی می‌کرد.

ارائه  و  پخش  اطلاعات  نادرست

آلتمن در مصاحبه‌اش به صراحت می‌گوید که نگران استفاده از ChatGPT برای انتشار اطلاعات نادرست در مقیاس‌های بزرگ و حتی حملات سایبری است. از سوی دیگر مدل‌های زبانی توسعه‌یافته در بات‌هایی مانند

 ChatGPT طوری حرف می‌زنند و جملات را سر هم می‌کنند که انگار حتما حرف‌شان درست و مطابق واقعیت است و مو لای درز استدلال و استنتاج‌شان نمی‌رود. در‌ واقع لحن متقاعدکننده این بات اجازه هیچ شک و تردیدی را به مخاطب غیرمتخصص و عادی نمی‌دهد، حتی اگر کاملا اشتباه بگوید. دلیل این اشتباهات هم مشخص است. این مدل‌ها اطلاعات را حفظ نمی‌کنند تا بعدا بر اساس آنها به سؤالات کاربر پاسخ دهند، بلکه از استدلال‌های استقرایی و قیاسی برای تولید پاسخ بهره می‌گیرند و بعضی اوقات هر گردی را واقعا گردو می‌دانند. آنها قرار نیست اطلاعات و داده‌ها را حفظ و سپس بین حفظیات‌شان جست‌وجو کنند و چیزی را از آن بین بیرون کشیده و به مخاطب تحویل دهند، بلکه آنها دقیقا قرار است مثل مغز انسان که در یک بحث استدلال می‌کند، بر اساس چیزهایی که قبلا خوانده و یاد گرفته‌اند، استدلال و جواب را تولید کنند. به همین خاطر به کاربران ChatGPT توصیه جدی می‌شود که با این بات مانند گوگل رفتار نکنند و حتما، پاسخ‌های آن را با منابع دیگر بررسی کرده و به حرف‌هایی که تحویل‌شان می‌دهد، اعتماد صددرصدی نداشته باشند. البته این بات با هر مکالمه خودش را بهبود می‌بخشد؛ چرا‌که هر کاربر هم می‌تواند با او وارد بحث و چالش شده و خطاهایش را به او گوشزد و آنها را تصحیح کند و هم به پاسخ‌های او بازخورد دهد و از طریق این بازخوردها در بهبود و توسعه این سیستم نقشی داشته باشد.

از طرف دیگر، توسعه ابزارهای هوش مصنوعی و پیشرفت آنها راه را برای تولید اخبار جعلی (Fake News) باز کرده و این نگرانی را به وجود آورده که در آینده نزدیک، جعلیاتی که با هوش مصنوعی سر از شبکه‌های اجتماعی درآورند، قابل تمییز از اخبار واقعی نباشند و همه را در آشفتگی بدون چاره‌ای سردرگم کنند. از همین الان می‌توان انتظار روزی را کشید که فیلم و صدای سخنرانی یک سیاست‌مدار یا هر شخصیت دیگری که با هوش مصنوعی تولید شده، هیچ نشانه‌ای نداشته باشد که بتوان غیرواقعی‌بودن آن را تشخیص داد و در نتیجه آن، بساط تکذیب هم گرم شود و واقعیت معنای خودش را از دست بدهد.

سوءاستفاده از هوش مصنوعی

هوش مصنوعی اخلاق و معیارهای اخلاقی برای تصمیم‌گیری را نمی‌فهمد، به همین خاطر می‌تواند به مخاطبی که از او خواسته، نحوه ساخت یک بمب دست‌ساز را آموزش دهد یا روش‌های خودکشی را در اختیار او بگذارد و حتی به خودکشی ترغیبش کند. اینجاست که سازندگان این سیستم‌ها دست به کار شده و به صورت دستی، محدودیت‌هایی را برای تولید پاسخ در نظر می‌گیرند و از این طریق تا حدی مانع سوءاستفاده از این سیستم‌ها می‌شوند. البته نمی‌توان انتظار داشت که همه توسعه‌دهندگان سیستم‌های مبتنی بر هوش مصنوعی هم نیت خیری داشته باشند و هم حواس‌شان آن‌قدر جمع باشد که بتوانند جلوی چیزی را که توسعه داده‌اند بگیرند و از سوءاستفاده از آن جلوگیری کنند.

رقیبی برای انسان و تهدیدی برای انسان‌بودن

ChatGPT همین الان هم در خیلی از فرایندها و آزمون‌ها توانسته جایگزین انسان شود و تهدیدی برای انسان‌بودنش به شمار رود. به‌عنوان مثال این بات در بسیاری از آزمون‌های مدارس و دانشگاه‌ها نمرات قبولی کسب کرده و باعث شده تغییر فرایند و روش‌های ارزیابی از دانش‌آموزان و دانشجوها در دستور کار مؤسسات آموزشی قرار گیرد. همچنین ChatGPT آزمون مجوز پزشکی ایالات متحده را توانسته با نمره قبولی پشت سر بگذارد، آن‌هم بدون هیچ‌گونه آموزش یا بهبود تخصصی در این زمینه و در پاسخ‌هایش هم سطح بالایی از تطابق و بینش را به نمایش گذاشته است. وب‌سایت معروف Stackoverflow که برای پرسش و پاسخ در زمینه برنامه‌نویسی و علوم کامپیوتر به کار می‌رود، استفاده از این بات برای تولید پاسخ را ممنوع اعلام کرده و کنفرانس بین‌المللی یادگیری ماشین (ICML) اعلام کرده که متن‌های تولیدی هوش مصنوعی نباید در مقالات به کار روند، هرچند ویرایش مقالات به کمک ChatGPT را مجاز دانسته تا این سؤال پیش بیاید که مرز بین ویرایش و نوشتن یک متن کجاست؟ یا اگر متن یک مقاله را یک سیستم هوش مصنوعی خلاصه کند، آن خلاصه یک متن جدید به حساب می‌آید یا فقط ویرایش متن قبلی؟

واقعیت این است که هر فناوری با ظهورش می‌تواند تغییرات جدی و وسیعی در کارها و مشاغل انسانی ایجاد کند و انسان‌ها هم در طول تاریخ توانسته‌اند از پس این تغییرات برآمده و خود را با آن وفق دهند، اما این تغییرات باید به حدی آرام رخ دهد که انسان فرصت انطباق با آن را داشته باشد. مشکل آنجاست که تغییراتی که هوش مصنوعی در سال‌ها و حتی ماه‌های پیش‌رو به دنبال اعمال آنهاست، به نظر آن‌قدر سریع جوامع انسانی را درمی‌نوردد که خیلی‌ها را نگران آینده شغلی‌شان کند.

سازندگان ChatGPT با همکاری دانشگاه پنسیلوانیا اخیرا نتایج مطالعه‌ای را منتشر کرده‌اند که به بررسی تأثیر این بات در بازار کار آمریکا می‌پردازد. در این مطالعه تأثیر مدل‌های زبانی هوش مصنوعی در مدت زمانی که برای تکمیل یک کار انسانی طول می‌کشد، در نظر گرفته شده و اگر مدت زمان لازم برای انجام یک وظیفه یا کار انسانی در اثر تعامل با سیستم‌های هوش مصنوعی تا ۵۰ درصد کاهش یابد، آن وظیفه یا شغل در معرض تأثیر هوش مصنوعی خواهد بود.

بر اساس نتایج این مطالعه، هوش مصنوعی حداقل ۱۰ درصد از کارها و وظایف ۸۰ درصد از نیروی کار ایالات متحده را تحت تأثیر خودش قرار می‌دهد و برای ۱۹ درصد از نیروی کار، این تأثیر تا ۵۰ درصد هم افزایش پیدا می‌کند.

جالب آنجاست که مشاغل پردرآمدتر بیشتر تحت تأثیر هوش مصنوعی قرار می‌گیرند و با احتمال بیشتری به دست سیستم‌هایی مانند ChatGPT بلعیده خواهند شد، اما حوزه‌های شغلی که به علوم و تفکر انتقادی مرتبط هستند، فعلا از خطر تأثیر هوش مصنوعی در امان هستند. در این مطالعه ریاضی‌دانان، حساب‌رسان و مشاوران مالیاتی، حسابداران، تحلیلگران مالی، طراحان وب و طراحان نمایه‌های دیجیتال، کارشناسان فرم‌های نظرسنجی، نویسندگان و مؤلفان، مترجمان کتبی و مترجمان هم‌زمان شفاهی، متخصصان حوزه روابط عمومی، پژوهشگران حوزه حیوانات، تحلیلگران خبری و خبرنگاران و روزنامه‌نگاران، وکلای حقوقی، کارمندان مکاتبات اداری، مهندسان بلاک‌چین، منشی‌ها، ویراستاران و تحلیلگران حوزه تغییرات آب‌وهوایی به‌‌عنوان افرادی شناخته شده‌اند که مشاغل‌شان به‌شدت در خطر تأثیرپذیری از هوش مصنوعی قرار دارد و احتمالا در آینده باید به فکر مشاغل دیگری باشند.

از سوی دیگر مشاغلی که ورود به آنها موانع کمتری دارد، کمتر از مشاغلی که ورود به آنها سخت‌تر و مستلزم عبور از موانع بیشتر است، تحت تأثیر هوش مصنوعی قرار می‌گیرند. در‌واقع مشاغل فیزیکی و دستی فعلا از خطر هجوم هوش مصنوعی در امان هستند و ممکن است به همین خاطر در سال‌های آینده، تقاضا برای آنها افزایش پیدا کرده و رقابت برای ورود به آنها سخت‌تر شود. در این مطالعه مشاغلی که افراد بدون نیاز به تحصیلات دانشگاهی و با کسب یک یا چند مهارت می‌توانند به آنها وارد شده و از توان فیزیکی‌شان در آن استفاده می‌کنند، به‌عنوان مشاغلی نام برده شده که در حال حاضر تحت تأثیر پیشرفت و توسعه هوش مصنوعی قرار نگرفته‌اند و از خطر جایگزینی مصون‌ هستند.

بدبینی  چامسکی

نوام چامسکی را شاید بیشتر به نظریات سیاسی و مخالفت‌هایش با سیاست‌های رسمی ایالات متحده بشناسند، اما مهم‌تر از آنها، تخصص اصلی چامسکی زبان‌شناسی و علوم شناختی است و از او به‌عنوان پدر زبان‌شناسی مدرن و یکی از بنیان‌گذاران علوم شناختی یاد می‌شود. شاید خیلی بیراه نباشد اگر بگوییم سیستم‌هایی مانند ChatGPT میوه درختی است که چامسکی آن را کاشته، اما نظر او نسبت به این میوه خیلی خوش‌بینانه و همراه با تحیر و ذوق و شوق نیست. از نظر چامسکی ذهن انسان، مانند ChatGPT و امثال آن، یک موتور آماری سخت‌گیر برای تطبیق الگوها، جمع‌آوری صدها ترابایت داده و برون‌یابی محتمل‌ترین پاسخ مکالمه یا محتمل‌ترین پاسخ به یک سؤال علمی بر اساس آنها نیست. در مقابل، ذهن انسان یک سیستم شگفت‌آور کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند و به پاسخ می‌رسد و نیازی به اطلاعات بسیار زیاد ندارد. در‌واقع ذهن انسان به دنبال استنتاج همبستگی‌های بی‌رحم بین داده نیست (کاری که هوش مصنوعی انجام می‌دهد)، بلکه به دنبال ایجاد توضیحات است؛ توضیحاتی که بتوانند چیزی فراتر از توصیف و پیش‌بینی را در دل خود داشته باشند.

چامسکی در مقاله‌ای که برای نیویورک‌تایمز نوشته، مثال‌های جالبی از تفاوت بین نحوه کارکرد ذهن انسان و سیستم‌های مبتنی بر هوش مصنوعی آورده است. او می‌گوید کودک خردسالی را در نظر بگیرید که مشغول یادگیری یک زبان انسانی است. این کودک در حین یادگیری این زبان، به‌طور ناخودآگاه و خودکار و با استفاده از داده‌های اندک و جزئی که دوروبرش پیدا می‌شود و در اختیارش است، یک دستور زبان را توسعه می‌دهد؛ دستور زبانی که یک سیستم فوق‌العاده پیچیده از اصول منطقی است و بر اساس آن می‌تواند جملات طولانی تولید کند و حتی پی افکارش را بگیرد. زمانی که زبان‌شناسان دنبال نظریه‌ای هستند که توضیح دهد چرا برخی جملات مطابق دستور زبان یک زبان صحیح است و برخی دیگر نه و هیچ‌گاه در آن زبان به کار نمی‌رود، به صورت آگاهانه، نسخه صریحی از همان دستور زبانی را بیان می‌کنند که کودک به‌طور غریزی آن را ساخته و بعدها از آن استفاده کرده است. اما نحوه کار ذهن کودک در توسعه این دستور زبان کاملا متفاوت با مدل‌های یادگیری ماشین در سیستم‌های هوش مصنوعی است. آنها به داده‌های بسیار زیادی نیاز دارند تا بتوانند یک زبان را یاد بگیرند و بر اساس آن مکالمه کنند.

از نظر چامسکی عمیق‌ترین عیب مدل‌های یادگیری ماشین در سیستم‌های هوش مصنوعی، فقدان حیاتی‌ترین ظرفیت هر هوش، یعنی توانایی توضیح است؛ یک سیستم هوشمند نه تنها باید توانایی توصیف و پیش‌بینی را داشته باشد (یعنی بتواند بگوید یک پدیده در گذشته چه بوده و الان چیست و در آینده احتمالا چه خواهد بود)، بلکه باید این قابلیت را هم داشته باشد که آن پدیده را توضیح دهد (یعنی بتواند بگوید چه چیزی نیست و چه چیزهایی می‌تواند باشد یا نمی‌تواند باشد).

او در ادامه مثال افتادن سیب از یک درخت را می‌زند. فرض کنید سیبی در دست دارید و رهایش می‌کنید. توصیف این اتفاق می‌شود این عبارت که «سیب می‌افتد». علاوه بر توصیف می‌توانید این پیش‌بینی را اضافه کنید که «اگر دستم را باز کنم، سیب می‌افتد». هر دو این عبارت‌ها درست و باارزش به شمار می‌روند، اما توضیح این پدیده چیزی فراتر از این عبارت‌هاست. توضیح هم حدس‌های خلاف واقعی مانند «هر جسمی سقوط می‌کند» را شامل می‌شود و هم چیزهای اضافه‌تر و مهم‌تری مانند اینکه سیب به دلیل نیروی گرانش یا انحنای فضا-زمان سقوط می‌کند. در نهایت شما می‌توانید یک توضیح علت و معلولی ارائه دهید: سیب سقوط نمی‌کند، مگر به‌خاطر نیروی گرانشی که به آن وارد می‌شود. اینجاست که تفکر خودش را نشان می‌دهد.

مدل‌های یادگیری ماشین فقط توصیف و پیش‌بینی می‌کنند و از ارائه توضیح و بیان روابط علت و معلولی عاجز هستند. البته هر توضیحی که ذهن انسان درباره یک پدیده ارائه می‌دهد، لزوما صحیح نیست، ولی خود این توضیح‌های اشتباه و خطاهایی که در بیان روابط علت و معلولی پیش می‌آید نیز بخشی از تفکر را شامل می‌شود. برای درست‌بودن، باید امکان خطا و اشتباه داشت و هوش انسانی، هم از حدس‌های خلاقانه تشکیل شده و هم از انتقاد خلاقی که منجر به تصحیح خطاها و اشتباه‌ها می‌شود. همین فرایند است که به تدریج دایره توضیحات و احتمالات عقلانی و منطقی را محدود و محدودتر می‌کند و در نهایت به آن چیزی که حقیقت می‌نامیمش، منجر می‌شود.

ChatGPT و دیگر سیستم‌های مشابه‌ آن، بنا بر طراحی‌شان، می‌توانند به‌طور نامحدود یاد بگیرند (حفظ کنند و به خاطر بسپارند)، اما نمی‌توانند ممکن را از غیرممکن تشخیص دهند. به‌عنوان مثال ما انسان‌ها تنها زبان‌هایی را می‌توانیم یاد بگیریم و با آنها تکلم کنیم که دارای نوع خاصی از ظرافت و منطق ریاضی باشند، اما سیستم‌های هوش مصنوعی هر زبانی، چه انسانی و چه غیرانسانی را به روش یکسانی یاد می‌گیرند. ما انسان‌ها در انواع توضیحاتی که عقل‌مان آنها را حدس می‌زند، محدود هستیم و ذهن‌مان خیلی از حدس‌های غیرمنطقی را فیلتر می‌کند، اما سیستم‌های هوش مصنوعی هم می‌توانند یاد بگیرند که زمین تخت است و هم می‌توانند یاد بگیرند که زمین کروی است؛ برای آنها فرقی بین این دو حالت وجود ندارد.

به همین خاطر پیش‌بینی‌های سیستم‌های مبتنی بر یادگیری ماشین، همواره سطحی و مشکوک خواهد بود و با دیده احتیاط باید به آنها نگریست. شاید برخی به این ویژگی سیستم‌های هوش مصنوعی افتخار کنند که بدون استفاده از توضیحاتی مثل قوانین فیزیک می‌توانند پیش‌بینی‌های صحیح علمی درباره حرکات اجسام داشته باشند، اما باید توجه داشت که ما در علم دنبال پیش‌بینی محتمل‌ترین حالت‌ها نیستیم، بلکه توضیحاتی را جست‌وجو می‌کنیم که در عین نامحتمل‌بودن (نظریه گرانش نیوتون یا نسبیت اینشتین در نگاه اول بسیار نامتحمل و بعید به نظر می‌رسند)، بتوانند پدیده‌ها را برایمان بشکافند و حقیقت پشتشان را برملا کنند. هوش در واقع تفکر و بیان چیزهایی است که اگرچه غیرمحتمل به نظر می‌رسد، اما توضیح‌دهنده و روشن‌کننده حقیقت است.

از سوی دیگر هوش واقعی انسانی توانایی تفکر اخلاقی را دارد و همین تفکر اخلاقی است که خلاقیت بی‌حدوحصر ذهن را با مجموعه‌ای از اصول اخلاقی محدود می‌کند تا بایدها و نبایدها مشخص شود. البته خود این اصول اخلاقی هم همواره در معرض انتقاد خلاقانه قرار دارد و مورد سؤال و نقد ذهن واقع می‌شود. اما در مورد هوش مصنوعی چنین تفکر اخلاقی‌ای در دسترس نیست و به همین خاطر توسعه‌دهندگان هوش مصنوعی مجبورند خودشان به‌صورت دستی محدودیت‌هایی را برای سیستم‌هایشان وضع کنند تا خروجی ‌آنها یک‌سری اصول اخلاقی را نقض نکند و در چارچوب‌های اخلاقی مرسوم بگنجد.

اگر شما با یک سیستم هوش مصنوعی مثل ChatGPT یک بحث اخلاقی داشته باشید (از او بپرسید فلان کار از نظرش اخلاقی هست یا نه)، او از پاسخ‌دادن طفره می‌رود و تنها استدلال‌های موافق و مخالف را بیان می‌کند و در نهایت هم مسئولیت را به گردن خالقان و توسعه‌دهندگانش می‌اندازد. چامسکی اینجا می‌گوید سیستم‌های هوش مصنوعی در بحث‌ها و تصمیم‌گیری‌های اخلاقی چیزی شبیه ابتذال شر را به نمایش می‌گذارند. از نظر او این سیستم‌ها نمی‌توانند بین خلاقیت و محدودیت تعادلی برقرار کنند.

فعلا دستیارهای خوبی هستند، آینده  را  نمی‌دانیم

ChatGPT همین الان هم دستیار بسیار خوبی برای خیلی‌ها به شمار می‌رود؛ برنامه‌نویس‌ها و توسعه‌دهنده‌های نرم‌افزار سؤالات‌شان را از او می‌پرسند و جواب‌های خوب و دقیقی می‌گیرند (بعضا کدهایی که تحویل می‌دهد، بهتر و کاراتر از برنامه‌نویس‌های انسانی است)، کپی‌رایترها برای نوشتن و ویرایش مقالات‌شان می‌توانند روی کمک او حساب کنند (موضوع و محتوا و فرم و لحن و سبک نوشتار را به‌طور دقیق مشخص کنید و بعد منتظر متنی باشید که برایتان کلمه به کلمه جلوی چشم‌تان می‌نویسد یا متنی را که نوشته‌اید و خیلی از آن راضی نیستید به او بدهید و بگویید که دنبال چه هستید تا دستی به سر و روی آن بکشد و خواسته‌هایتان را موبه‌مو اجرا کند) و دانشجوها و دانش‌آموزان سؤال‌های درسی و علمی‌شان را با او در میان می‌گذارند و اگر حواس‌شان به جمع خطاهای احتمالی او باشد (استدلال‌های ریاضی و منطقی‌اش ممکن است کاملا گمراه‌کننده باشد، اما می‌توان مسیر استدلال و استنتاجش را تا حدی تصحیح و به راه راست هدایتش کرد)، می‌توانند به جواب‌های خوبی برسند. مایکروسافت نیز برای نجات موتور جست‌وجوی نسبتا نامحبوبش، Bing، دست‌به‌دامن این بات شده و آن را به بینگ اضافه کرده تا کاربران انگیزه‌ای برای دل‌کندن از گوگل داشته باشند و در این هدف تقریبا موفق هم بوده است.

در حال حاضر سیستم‌های مبتنی بر هوش مصنوعی مجهز به تفکر انتقادی نیستند و پای استدلال‌هایشان لنگ می‌زند، اما همان‌طورکه آلتمن هم می‌گوید، بهتر است به‌عنوان دستیارهای هوشمند، نگاهی ابزاری به آنها داشته باشیم و فعلا جایگزین انسان ندانیمشان. البته استفاده از آنها مانند هر ابزار دیگری که بشر پیش از این توسعه داده، نیاز به تخصص و مهارت دارد و در آینده آنهایی موفق‌تر خواهند بود که بهتر بتوانند از آن بهره ببرند و با آن ارتباط موثرتری برقرار کنند. ما قرار است در گوش این سیستم‌های هوشمند زمزمه کنیم و آنها اوامرمان را اطاعت کنند و هرقدر زبانشان را بهتر بفهمیم و منظورمان را بهتر به آنها برسانیم، نتیجه هم بیشتر مطابق میلمان خواهد بود. در ‌واقع محدودیت تصور ما در خواسته‌هایی که می‌توانیم از آنها داشته باشیم، مرزهای محدودیت آنها را مشخص خواهد کرد؛ وگرنه آنها نشان داده‌اند که در تولید چیزهایی که از آنها خواسته‌ایم، فرمان‌برداران خوب و مطیعی هستند.

ما مجبوریم مانند هر فناوری دیگری که پیش از آن وارد زندگی‌مان شده، با سیستم‌های مبتنی بر هوش مصنوعی هم کنار بیاییم و تبعات رشد و توسعه و فراگیری‌اش را بپذیریم؛ هم شغل‌هایمان تغییر خواهد کرد و هم مهارت‌هایی که مورد نیاز ماست و هم دنیایی حقیقی و مجازی که روزمان را در آن شب می‌کنیم، اما می‌توانیم امیدوار باشیم که این هیاهو برای هیچ نباشد و این زبان‌فهم‌های هوشمند، واقعا دنیایمان را جای بهتری برای زندگی کنند و به همزیستی مسالمت‌آمیز با ما رضایت دهند.

 

اخبار مرتبط سایر رسانه ها