|

آیا هوش مصنوعی جدید متا ابزار دیگری برای جمع آوری داده‌هاست؟

شرکت متا در اطلاعیه خبری خود حین رونمایی از چت‌بات جدیدش اذعان کرده «هوش مصنوعی متا برای شناخت شما طراحی شده است».

آیا هوش مصنوعی جدید متا ابزار دیگری برای جمع آوری داده‌هاست؟

هفته گذشته متا،  شرکت مادر فیسبوک، اینستاگرام و واتساپ،  از یک هوش مصنوعی شخصی رونمایی کرد. این هوش مصنوعی جدید، با بهره‌گیری از مدل زبانی Llama 4 توسعه یافته و برای چت‌کردن، مکالمه‌های روزانه و کمک‌کردن به کاربران طراحی و راه‌اندازی شده است.

هوش منصوعی جدید متا، با یک رابط کاربری بسیار دوست‌داشتنی و جذاب و تعاملاتی روان، به احتمال زیاد یکی از قوی‌ترین بازیکنانی خواهد بود که وارد این عرصه شده و قرار است به یکی از دوستان نزدیک مردم سراسر دنیا تبدیل شود. با این حال، در زیر لایه ظاهری زیبای این چت‌بات، یک قابلیت و وجه تمایز بسیار مهم نهفته است که آن را بیش از پیش برای کاربران و به‌ویژه متخصصین خاص می‌کند:

«ساخته‌شده برای شما»!

شرکت متا در اطلاعیه خبری خود حین رونمایی از چت‌بات جدیدش اذعان کرده «هوش مصنوعی متا برای شناخت شما طراحی شده است».

بله... برخلاف ظاهر زیبا و دوستانه‌ای که این شعار دارد، شاید برای خیلی‌ها کمی ترسناک به نظر برسد و حس بی‌اطمینانی ایجاد کند!

جفری فاولر (Geoffrey A. Fowler)، از نویسندگان برجسته واشنگتن پست، ادعا می‌کند که به احتمال زیاد، چت‌بات هوش مصنوعی جدید متا قرار است: «یک کپی از همه‌چیز شما» را نگه دارد؛ قابلیتی که قطعاً به حافظه بالایی نیاز دارد. این در حالی است توسعه‌دهندگان سرویس در متا، مدعی هستند که این ابزار نیز مانند هر سرویس فعال دیگری سراسر «شفافیت و کنترل» است و تفاوت عمده چندانی با رقبا ندارد.

با‌این‌حال، نباید به این نکته بی‌توجه بود که یکی از تفاوت‌های عمده میان شرکت‌هایی مثل آنتروپیک (Anthropic) و متا، همین داده‌های کاربران بوده است. متا سال‌های سال است که از داده‌های کاربران استفاده می‌کند و مدل‌های جدید خود را بر آن بنا نهاده، در‌حالی‌که هوش‌های مصنوعی دیگر نیز کلاود (Claude) شرکت آنتروپیک، بر حفظ حریم خصوصی استوار هستند.

همین تمایز می‌تواند یک پارادوکس نگران‌کننده ایجاد کند! چت‌بات‌ها، به‌سرعت به زندگی ما رسوخ کرده‌اند و در حال حاضر، به محرمان اصلی زندگیمان بدل شده‌اند. ما تقریباً همه چالش‌های حرفه‌ای، خانوادگی، سلامتی و حتی عاطفی خود را با آن‌ها در میان می‌گذاریم.

داده‌های منتشر شده حاکی از آن هستند که کاربران، همان‌قدر که اطلاعات محرمانه و رازهای شخصی خود را با دوستان صمیمی و اعضای خانواده‌شان در میان می‌گذارند، با چت‌بات‌های هوش مصنوعی نیز به اشتراک می‌گذارند و ماهیت شخصی این تعاملات، این محرمانِ دیجیتالی را به یک معدن ارزشمند طلا برای شرکتی تبدیل می‌کند که درآمدش به دانستن همه‌چیز در‌مورد شما بستگی دارد.

آنچه که هوش مصنوعی متا را کمی نگران‌کننده‌تر از سایر رقبا می‌کند، عمق و ماهیت چیزهایی است که کاربران ممکن است در مکالمه با این هوش مصنوعی فاش کنند؛ آن‌هم زمانی که آن را یک دوست جدید می‌پندارند.

در عین حال، جدای از بحث جمع‌آوری داده و استفاده ابزاری از آن، موضوع دستکاری نیز مطرح است. یک چت‌بات نظیر هوش مصنوعی متا، قابلیت آن را دارد که به جای صرفاً جمع‌آوری‌ منفعلانه اطلاعات، به یک عامل فعال در دستکاری تبدیل شود. موضوعی که به‌ویژه در تبلیغات می‌تواند کاربردهای گسترده‌ای داشته و تاثیر بسزایی روی کاربران داشته باشد.

تصور کنید به رفیق چت‌باتی‌تان بگویید امروز خسته‌اید و او پیشنهاد دهد که بهترین راه برای رهایی از این خستگی، نوشیدن انرژی‌زاهای فلان برند است!

بدون‌شک، این نوع تبلیغات، با تبلیغات مستقیم و آشکار تفاوت دارد و به‌دلیل دستکاری‌های ذهنی که در آن صورت می‌گیرد، به‌ویژه وقتی پای تضمین کیفیت نیز در میان نباشد، می‌تواند بسیار آسیب‌رسان باشد. البته، هیچ مدرکی مبنی بر استفاده از هوش مصنوعی متا برای دستکاری وجود ندارد، اما نباید فراموش کرد که این دستاورد، چنین ظرفیتی را دارد و هرلحظه ممکن است بالفعل شود.

در‌نهایت، باید گفت که دستیاران هوش مصنوعی ذاتاً مضر نیستند؛ چه محصول متا، چه چت جی‌پی‌تی که تقریباً همه مرزهای موفقیت را درنوردیده و چه هر محصول مرتبط دیگری که پا به عرصه وجود می‌گذارد. شرکت‌هایی که در پشت پرده این محصولات هستند، اغلب حافظ حریم خصوصی کاربران‌اند و نظارت‌های رگولاتوری نیز تا حدی توانسته‌اند کارساز باشند.

با‌این‌حال، باید در نظر داشت که با ادغام فزاینده هوش مصنوعی در زندگی روزمره ما، با رفاقت‌هایی که بین ما و این سیستم‌های باهوش ایجاد می‌شود، مدل‌های تجاری رشد کرده و شیوه‌های مدیریت داده تغییر پیدا می‌کند و این امر می‌تواند پیامدهای عمیقی در پی داشته باشد.