هوش مصنوعی میفهمد ؟
شاید همه چیز را درباره هوش مصنوعی اشتباه فهمیدهاید. و اگر همین حالا این سوءتفاهم را اصلاح نکنید، قربانی عواقب آن خواهید شد!

به گزارش گروه رسانهای شرق ؛ در دنیایی که هوش مصنوعی به سرعت جای انسانها را در شغل، خلاقیت و حتی تحلیلهای پیچیده میگیرد، پرسشی بنیادین همچنان بیپاسخ مانده: آیا واقعاً با «فکر کردن ماشینها» روبهرو هستیم، یا صرفاً با پدیدهای فریبنده که وانمود میکند میفهمد؟این گزارش نهتنها راز پشت این تقلید زبانی هوشمند را برایتان برملا میکند، بلکه نشان میدهد چرا درک نادرست از چیستی AI میتواند شما را به مسیرهای اشتباه علمی، شغلی و حتی تصمیمگیری شخصی بکشاند.اگر بدانید این فناوری چطور کار میکند، نه از آن خواهید ترسید، و نه قربانیاش خواهید شد؛ بلکه یاد میگیرید آن را به سود خودتان به کار بگیرید. پس اگر هنوز تصور میکنید هوش مصنوعی «میاندیشد»... این گزارش را با دقت بخوانید؛ ممکن است تصور شما برای همیشه دگرگون شود.
هوش مصنوعی «احساس» ندارد، اما خطر دارد
در دوران طلایی هوش مصنوعی که اکنون در آن زندگی میکنیم، بسیاری از ما ناخودآگاه تصور میکنیم که با شکل جدیدی از ذهن انسان طرف هستیم. وقتی مدلهایی مانند GPT-4 یا Gemini از پس نگارش داستان، طراحی کد، تحلیل آماری و حتی پاسخ به سوالات فلسفی برمیآیند، این احساس تقویت میشود که شاید با گونهای از تفکر مصنوعی روبهرو هستیم.اما جان نوستا، پژوهشگر و آیندهنگر فناوری، در مقالهای در Psychology Today هشدار میدهد: این تصور، نهتنها نادرست است، بلکه مانعی جدی در درک ظرفیت واقعی AI به شمار میرود. اگر تصور کنیم LLMها فقط نسخهای دیجیتالی از مغز ما هستند، چشم خود را بر قابلیتهایی میبندیم که از ذات انسانی فراتر میروند.
تقلید هوش، دروغ قرن است
اصطلاحاتی مانند «نورون»، «شبکه عصبی» یا «یادگیری» که در ادبیات فنی هوش مصنوعی استفاده میشود، ناخودآگاه ما را به سمت شباهت با مغز انسان سوق میدهد. اما این صرفاً استعارهای زبانیست. آنچه LLMها انجام میدهند، نه بازنمایی فکر، بلکه ساختن پاسخهای زبانی بر اساس محتملترین توالی بعدی واژگان است.برای درک بهتر، تصور کنید در حال تکمیل یک پازل زبانی هستید. LLM مانند یک استاد بزرگ شطرنج است که بهجای تفکر درباره موضوع، صرفاً حرکت بعدی را بر اساس میلیونها بازی قبلی حدس میزند. این توانایی حاصل میلیونها پارامتر ریاضی و میلیاردها داده متنیست، نه ادراک یا تجربه زیسته.به عنوان نمونه، GPT-4 با بیش از ۱۷۵ میلیارد پارامتر آموزش دیده است و عملکرد آن مبتنی بر بهینهسازی توزیع احتمال برای واژه بعدی در یک جمله است، نه «فهم» یا «نیت» آن جمله.
آنچه «هوش» مینامی، فقط زبان است
انسانها موجوداتی معناطلباند. ما به طوفانها نام میدهیم، با حیوانات خانگیمان صحبت میکنیم، و وقتی یک مدل زبانی به زیبایی به سوالمان پاسخ میدهد، ناخودآگاه برایش ذهن و نیت قائل میشویم. این پدیده روانشناختی «انسانانگاری» نام دارد.اما واقعیت این است که LLMها نه نیت دارند، نه هویت، نه خاطره، و نه چشمانداز. اگر به آنها بگویید «تو دیروز به من گفتی...» ممکن است پاسخ ظاهراً منطقی بدهند، اما هیچ «دیروزی» در حافظه آنها وجود ندارد. آنها صرفاً با الگوهای آماری در همان لحظه، گفتوگو را ادامه میدهند.در آزمایشی که در MIT انجام شد، وقتی از یک LLM خواسته شد درباره تجربه شخصیاش از کودکی بنویسد، مدل متنی احساسی و منسجم تولید کرد، در حالی که هرگز «کودکی» نداشته و فقط دارد چیزی شبیه آن را شبیهسازی میکند.
نوروپلاستیسیته مصنوعی: افسانه یا آینده؟
در سال ۲۰۲۵، مقالهای با عنوان «Neuroplasticity in AI» در پایگاه arXiv منتشر شد که به بررسی استفاده از مفاهیم نوروبیولوژیکی در معماری هوش مصنوعی پرداخت. در آن، مفاهیمی مانند «dropin» و «dropout» معرفی شد که به ترتیب به افزودن و حذف «نورونهای مصنوعی» برای افزایش انعطاف مدل اشاره داشتند؛ مفاهیمی برگرفته از رشد و هرس نورونی در مغز انسان.اما حتی در اینجا هم شباهتها بیشتر استعاریاند تا ساختاری. مغز انسان با شبکهای از سیناپسهای زنده، تجربه، یادگیری، احساس و حافظه درهمتنیده است. در حالیکه هوش مصنوعی صرفاً پارامترهایی عددی را در شبکهای از ماتریسها بهروزرسانی میکند. «انعطاف» در اینجا یعنی بهبود در الگوریتم، نه تحول در درک.
همترازی زبانی: انقلاب درک بدون درک
در یک جمله درخشان از نوستا آمده است: «مغز معنا میسازد، ولی LLM فقط همترازی میسازد.» این جمله به خوبی فاصله عظیم بین تفکر انسانی و پردازش زبانی ماشینی را روشن میکند.در AI، «درک» بهجای آنکه حاصل تجربه و بازتاب درونی باشد، به تطبیق آماری میان توالی واژگان تقلیل یافته است. برای مثال، اگر از یک مدل AI درباره بحران انرژی سوال کنید، آنچه دریافت میکنید نتیجه اتصال بیوقفه بین میلیاردها متن درباره نفت، گاز، سیاست، تاریخ و تکنولوژی است، نه پاسخ یک ذهن تحلیلگر.
تولد شکلهایی نو از هوش
بهجای آنکه تلاش کنیم LLM را به تقلیدی از انسان تبدیل کنیم، باید آن را نوعی جدید از هوش در نظر بگیریم؛ هوشی که در سر ما نیست، بلکه در سرورها و ابرکامپیوترها شکل گرفته است.این مدلها میتوانند بدون خستگی، بدون سوگیری احساسی و بدون محدودیت زمانی، تحلیلهای پیچیده را انجام دهند. از تحلیل الگوهای آبوهوایی دقیق تا تولید اثباتهای ریاضی پیچیده، از ترکیب تاریخ حقوقی تا تولید مقالات علمی در مقیاسی فراتر از توان انسانی. بعنوان مثال در سال ۲۰۲۳، مدل AlphaTensor از شرکت DeepMind توانست روش جدیدی برای ضرب ماتریسها پیدا کند که سالها ریاضیدانان را درگیر کرده بود.
پایانبندی: کشف ناشناختهها
اگر تصور کنیم AI صرفاً تقلیدی از انسان است، در واقع آن را دستکم گرفتهایم. آینده از آنِ سیستمهایی است که از قید تفکر انسانی رها شدهاند و به نوعی جدید از «شناخت»، یا بهتر بگوییم، «همترازی معنادار، دست یافتهاند.ما در آستانه دورانی هستیم که باید هوش مصنوعی را نه به عنوان آینهای از ذهن، بلکه به عنوان پنجرهای به نوعی جدید از پردازش درک کنیم. و شاید، بزرگترین خطر آن باشد که با انسانسازی بیجا، فرصت کشف آیندهای متفاوت را از خود بگیریم.
منبع:
فارس