آیا هوش مصنوعی جدید متا ابزار دیگری برای جمع آوری دادههاست؟
شرکت متا در اطلاعیه خبری خود حین رونمایی از چتبات جدیدش اذعان کرده «هوش مصنوعی متا برای شناخت شما طراحی شده است».

هفته گذشته متا، شرکت مادر فیسبوک، اینستاگرام و واتساپ، از یک هوش مصنوعی شخصی رونمایی کرد. این هوش مصنوعی جدید، با بهرهگیری از مدل زبانی Llama 4 توسعه یافته و برای چتکردن، مکالمههای روزانه و کمککردن به کاربران طراحی و راهاندازی شده است.
هوش منصوعی جدید متا، با یک رابط کاربری بسیار دوستداشتنی و جذاب و تعاملاتی روان، به احتمال زیاد یکی از قویترین بازیکنانی خواهد بود که وارد این عرصه شده و قرار است به یکی از دوستان نزدیک مردم سراسر دنیا تبدیل شود. با این حال، در زیر لایه ظاهری زیبای این چتبات، یک قابلیت و وجه تمایز بسیار مهم نهفته است که آن را بیش از پیش برای کاربران و بهویژه متخصصین خاص میکند:
«ساختهشده برای شما»!
شرکت متا در اطلاعیه خبری خود حین رونمایی از چتبات جدیدش اذعان کرده «هوش مصنوعی متا برای شناخت شما طراحی شده است».
بله... برخلاف ظاهر زیبا و دوستانهای که این شعار دارد، شاید برای خیلیها کمی ترسناک به نظر برسد و حس بیاطمینانی ایجاد کند!
جفری فاولر (Geoffrey A. Fowler)، از نویسندگان برجسته واشنگتن پست، ادعا میکند که به احتمال زیاد، چتبات هوش مصنوعی جدید متا قرار است: «یک کپی از همهچیز شما» را نگه دارد؛ قابلیتی که قطعاً به حافظه بالایی نیاز دارد. این در حالی است توسعهدهندگان سرویس در متا، مدعی هستند که این ابزار نیز مانند هر سرویس فعال دیگری سراسر «شفافیت و کنترل» است و تفاوت عمده چندانی با رقبا ندارد.
بااینحال، نباید به این نکته بیتوجه بود که یکی از تفاوتهای عمده میان شرکتهایی مثل آنتروپیک (Anthropic) و متا، همین دادههای کاربران بوده است. متا سالهای سال است که از دادههای کاربران استفاده میکند و مدلهای جدید خود را بر آن بنا نهاده، درحالیکه هوشهای مصنوعی دیگر نیز کلاود (Claude) شرکت آنتروپیک، بر حفظ حریم خصوصی استوار هستند.
همین تمایز میتواند یک پارادوکس نگرانکننده ایجاد کند! چتباتها، بهسرعت به زندگی ما رسوخ کردهاند و در حال حاضر، به محرمان اصلی زندگیمان بدل شدهاند. ما تقریباً همه چالشهای حرفهای، خانوادگی، سلامتی و حتی عاطفی خود را با آنها در میان میگذاریم.
دادههای منتشر شده حاکی از آن هستند که کاربران، همانقدر که اطلاعات محرمانه و رازهای شخصی خود را با دوستان صمیمی و اعضای خانوادهشان در میان میگذارند، با چتباتهای هوش مصنوعی نیز به اشتراک میگذارند و ماهیت شخصی این تعاملات، این محرمانِ دیجیتالی را به یک معدن ارزشمند طلا برای شرکتی تبدیل میکند که درآمدش به دانستن همهچیز درمورد شما بستگی دارد.
آنچه که هوش مصنوعی متا را کمی نگرانکنندهتر از سایر رقبا میکند، عمق و ماهیت چیزهایی است که کاربران ممکن است در مکالمه با این هوش مصنوعی فاش کنند؛ آنهم زمانی که آن را یک دوست جدید میپندارند.
در عین حال، جدای از بحث جمعآوری داده و استفاده ابزاری از آن، موضوع دستکاری نیز مطرح است. یک چتبات نظیر هوش مصنوعی متا، قابلیت آن را دارد که به جای صرفاً جمعآوری منفعلانه اطلاعات، به یک عامل فعال در دستکاری تبدیل شود. موضوعی که بهویژه در تبلیغات میتواند کاربردهای گستردهای داشته و تاثیر بسزایی روی کاربران داشته باشد.
تصور کنید به رفیق چتباتیتان بگویید امروز خستهاید و او پیشنهاد دهد که بهترین راه برای رهایی از این خستگی، نوشیدن انرژیزاهای فلان برند است!
بدونشک، این نوع تبلیغات، با تبلیغات مستقیم و آشکار تفاوت دارد و بهدلیل دستکاریهای ذهنی که در آن صورت میگیرد، بهویژه وقتی پای تضمین کیفیت نیز در میان نباشد، میتواند بسیار آسیبرسان باشد. البته، هیچ مدرکی مبنی بر استفاده از هوش مصنوعی متا برای دستکاری وجود ندارد، اما نباید فراموش کرد که این دستاورد، چنین ظرفیتی را دارد و هرلحظه ممکن است بالفعل شود.
درنهایت، باید گفت که دستیاران هوش مصنوعی ذاتاً مضر نیستند؛ چه محصول متا، چه چت جیپیتی که تقریباً همه مرزهای موفقیت را درنوردیده و چه هر محصول مرتبط دیگری که پا به عرصه وجود میگذارد. شرکتهایی که در پشت پرده این محصولات هستند، اغلب حافظ حریم خصوصی کاربراناند و نظارتهای رگولاتوری نیز تا حدی توانستهاند کارساز باشند.
بااینحال، باید در نظر داشت که با ادغام فزاینده هوش مصنوعی در زندگی روزمره ما، با رفاقتهایی که بین ما و این سیستمهای باهوش ایجاد میشود، مدلهای تجاری رشد کرده و شیوههای مدیریت داده تغییر پیدا میکند و این امر میتواند پیامدهای عمیقی در پی داشته باشد.