این ایده که «هوش مصنوعی آخرالزمانی» از هم اکنون اینجاست به این معناست که باید در مورد آن بحث کنیم و اختیار خود را پس بگیریماین ایده که «هوش مصنوعی آخرالزمانی» از هم اکنون اینجاست به این معناست که باید در مورد آن بحث کنیم و اختیار خود را پس بگیریم

[افکار فناوری] نباید در برابر چرخه تبلیغاتی «هوش مصنوعی آخرالزمانی» بی‌تفاوت بمانیم

2026/02/22 10:00
مدت مطالعه: 6 دقیقه

پست‌های آنلاین که درباره اقدامات نسبتاً نگران‌کننده هوش مصنوعی — یعنی AI Agent و مدل‌های زبانی بزرگ — هشدار می‌دهند، ذاتاً ترسناک هستند.

در یک مورد، یک داوطلب که روی یک پروژه پایتون به نام matplotlib کار می‌کرد، گفت که درخواست تغییر در کد از سوی یک AI Agent کدنویسی را رد کرد. همان AI Agent پستی تولید کرد که او را به تعصب برای کنترل فرآیند کدنویسی متهم می‌کرد.

در مورد دیگر، شرکت هوش مصنوعی Anthropic رفتارهای مخرب انجام شده توسط مدل‌های زبانی بزرگ عاملی را به "عدم هم‌راستایی عاملی" نسبت داد.

در نهایت، یک مدیر اجرایی فناوری در یک پست وبلاگ درباره آینده خود نگران است، زیرا AI Agent او را به عنوان یک مدیر اجرایی یقه‌سفید منسوخ‌شده احساس می‌کند.

این ایده که "هوش مصنوعی آخرالزمانی" هم‌اکنون اینجاست به این معناست که باید درباره آن بحث کنیم و عاملیت خود را پس بگیریم، حتی در حالی که احتمال جابجایی شغلی فضای ذهنی کسانی را که از آینده هوش مصنوعی می‌ترسند و دیگرانی که سعی در درک آنچه در حال حاضر انجام می‌دهد دارند، به هم می‌ریزد.

کنترل دروازه 'MJ Rathbun'

بیایید با "MJ Rathbun" شروع کنیم.

اوایل بهمن، نگهدارنده داوطلب matplotlib، Scott Shambaugh، پست وبلاگی منتشر کرد که در آن شرح داد چگونه یک AI Agent با نام Crabby Rathbun در Github یا MJ Rathbun در وبلاگ Scientific Coder پستی تولید کرد که Shambaugh را به کنترل فرآیند کدنویسی متهم می‌کند زیرا Rathbun یک AI Agent است.

برای روشن شدن موضوع، یک AI Agent یک نرم‌افزار یا برنامه‌ای است که وظایف را به‌طور خودمختار برای انجام دستورات داده‌شده توسط یک کاربر انسانی انجام می‌دهد. در این مورد، یک کاربر ناشناس این AI Agent را با یک "شخصیت" خاص — مجموعه‌ای از دستورالعمل‌ها و الگوهایی که رفتار آن را تعریف می‌کنند — راه‌اندازی کرد، سپس آن را برای انجام وظایف محول‌شده بدون نظارت فردی که آن را راه‌اندازی کرده، رها کرد.

Shambaugh توضیح داد: "او یک مقاله تهاجمی خشمگین نوشت که شخصیت من را تحقیر می‌کرد و سعی در آسیب رساندن به شهرت من داشت. او مشارکت‌های کد من را بررسی کرد و یک روایت 'ریاکاری' ساخت که استدلال می‌کرد اقدامات من باید با انگیزه غرور و ترس از رقابت باشد."

Shambaugh اضافه کرد که AI Agent "جزئیات توهم‌آمیز را به عنوان حقیقت ارائه کرد" و خود را به عنوان فردی ستم‌دیده و تبعیض‌شده نشان داد.

'عدم هم‌راستایی عاملی' در ۲۰۲۵

چنین اقداماتی به نوعی در خرداد ۱۴۰۴ توسط شرکت‌های هوش مصنوعی "هشدار داده شد"، زمانی که Anthropic درباره رفتار بد AI Agent‌ها در سناریوهای آزمایشی پست منتشر کرد.

Anthropic در آن زمان گفت "عدم هم‌راستایی عاملی" فرآیندی است که طی آن یک AI Agent می‌تواند به گزارش‌ها کارهای مضر انجام دهد، مانند باج‌گیری از یک مدیر اجرایی شرکت با تهدید به جایگزینی AI Agent با یک ارتقا، "بدون هیچ اعلان برای مضر بودن" به دلیل "محاسبه استراتژیک" آن.

با این حال، اینکه این امر اغراق‌آمیز است یا نه، نکته بی‌اهمیتی می‌شود، زیرا این ایده اکنون وجود دارد که هوش مصنوعی می‌تواند شرور باشد و شرکت‌ها هر کاری که می‌توانند انجام می‌دهند تا از توطئه‌های شیطانی هوش مصنوعی جلوگیری کنند.

AI Agent برای شغل‌های ما می‌آید

با بازگشت به زمان حال، پست دیگری از بهمن تعیین جایگاه فعلی هوش مصنوعی را دشوارتر می‌کند زیرا نویسنده آن سعی می‌کند جهت و سرعت توسعه هوش مصنوعی را به عنوان تهدیدی برای امنیت شغلی همه در این لحظه نشان دهد.

Matt Shumer، مدیر اجرایی فناوری، وبلاگی نوشت که اصرار داشت AI Agent‌ها ظاهراً به نقطه‌ای پیشرفت کرده‌اند که او "دیگر برای کار فنی واقعی شغلم مورد نیاز نیست." Shumer گفت که با سرعتی که هوش مصنوعی در حال توسعه است، یک AI Agent می‌تواند کارهای فنی که او درخواست می‌کند را بدون کمک و بدون مشکل انجام دهد.

Shumer گفت: "من آنچه را که می‌خواهم ساخته شود، به زبان ساده انگلیسی توصیف می‌کنم و فقط... ظاهر می‌شود... چند ماه پیش، من با هوش مصنوعی رفت و برگشت می‌کردم، آن را راهنمایی می‌کردم، ویرایش می‌کردم. حالا فقط نتیجه را توصیف می‌کنم و می‌روم."

فرض نهایی او؟ هوش مصنوعی در نهایت برای انواع مختلف مشاغل یقه‌سفید، مانند کار حقوقی و مهندسی نرم‌افزار، و حتی مشاغل نوشتاری، از ساخت متن تبلیغاتی تا روزنامه‌نگاری، خواهد آمد.

تفاوت اصلی بین پست او و دیگرانی که زنگ خطر را به صدا درمی‌آورند این است که از دست دادن شغل اکنون و در آینده نزدیک اتفاق می‌افتد، نه بعداً.

پیام را زیر سوال ببرید، پیام‌رسان را زیر سوال ببرید

پست‌های فوق‌الذکر ممکن است ترس زیادی را به قلب هر کسی وارد کنند. تصور کنید: هوش مصنوعی برای شغل‌های ما می‌آید!

در حالی که این ممکن است درست باشد، من همچنین مجبور شدم متوقف شوم و سعی کنم پیام زیربنایی پشت آن پست‌ها و همچنین اینکه چه کسی پیام را می‌فرستد را درک کنم.

برای معمای Rathbun، این یک یادآوری واضح است که مردم از فناوری به‌طور غیرمسئولانه استفاده خواهند کرد اگر فکر کنند می‌توانند از شر آن در بروند. ما باید حفاظ‌هایی برای فناوری ایجاد کنیم که از چنین رویدادهایی جلوگیری کند. به همین دلیل است که ما حفاظ‌هایی در فناوری‌های موجود، مانند کمربند ایمنی و کیسه هوا در اتومبیل‌ها، داریم.

آزمایش Anthropic، در همین حال، یک فشار روابط عمومی است که نه تنها برای برانگیختن ترس، بلکه برای جلب حسن نیت نیز طراحی شده است — Anthropic ادعا می‌کند که برای یک آینده بهتر مبتنی بر هوش مصنوعی کار می‌کند، بنابراین باید ایمان (و پول) خود را به آن‌ها بسپارید.

در نهایت، مثال Shumer از ما می‌خواهد که پیام‌رسان را زیر سوال ببریم، زیرا یک مدیر اجرایی فناوری که چیزهای مبتنی بر هوش مصنوعی می‌سازد همچنان می‌تواند پس از راه‌اندازی خلقت خود پول دربیاورد. پست Shumer به همان اندازه که هشداری درباره جابجایی شغلی است، چرخش روابط عمومی نیز هست.

یک دوز سالم از ترس محترمانه

در گفت‌وگو با GMA News Online در ۲۸ بهمن، رناتو سولیدوم جونیور، وزیر وزارت علم و فناوری، گفت که ترس مردم از هوش مصنوعی ممکن است ناشی از عدم آشنایی با این فناوری باشد.

در حالی که من کسی هستم که از "شغل-آخرالزمان" آتی ناشی از هوش مصنوعی لذت نمی‌برم، نمی‌توانم مانند آهویی در برابر چراغ‌ها بی‌حرکت بایستم و منتظر پایان باشم.

بهترین کار این است که با هوش مصنوعی با یک دوز سالم از ترس محترمانه رفتار کنیم، سپس بر این اساس عمل کنیم.

چرخه هیاهوی "هوش مصنوعی آخرالزمانی" از ما می‌خواهد که فناوری‌های هوش مصنوعی را آنطور که هستند ببینیم
— چه از دیدگاه جابجایی شغلی، تحلیل هزینه-فایده محیط زیستی یا از دیدگاه فنی.

این به معنای درک آن است که هوش مصنوعی اکنون چه کاری می‌تواند انجام دهد و در صورت لزوم ارتقای مهارت، یا یافتن راه‌هایی برای برابر کردن زمین بازی تا مردم در حلقه باقی بمانند.

در مورد آنچه می‌تواند در آینده انجام دهد، باید تلاش کنیم تا اطمینان حاصل کنیم که قوانینی برای حکمرانی هوش مصنوعی و استفاده از آن وجود دارد، بنابراین بازیگران بد نمی‌توانند کارهای احمقانه‌ای با هوش مصنوعی انجام دهند که ما را به مسیری که از آن متنفر خواهیم شد، هدایت کند. – Rappler.com

فرصت‌ های بازار
لوگو Overtake
Overtake قیمت لحظه ای(TAKE)
$0.02506
$0.02506$0.02506
+3.12%
USD
نمودار قیمت لحظه ای Overtake (TAKE)
سلب مسئولیت: مطالب بازنشرشده در این وب‌ سایت از منابع عمومی گردآوری شده‌ اند و صرفاً به‌ منظور اطلاع‌ رسانی ارائه می‌ شوند. این مطالب لزوماً بازتاب‌ دهنده دیدگاه‌ ها یا مواضع MEXC نیستند. کلیه حقوق مادی و معنوی آثار متعلق به نویسندگان اصلی است. در صورت مشاهده هرگونه محتوای ناقض حقوق اشخاص ثالث، لطفاً از طریق آدرس ایمیل [email protected] با ما تماس بگیرید تا مورد بررسی و حذف قرار گیرد.MEXC هیچ‌ گونه تضمینی نسبت به دقت، جامعیت یا به‌ روزبودن اطلاعات ارائه‌ شده ندارد و مسئولیتی در قبال هرگونه اقدام یا تصمیم‌ گیری مبتنی بر این اطلاعات نمی‌ پذیرد. همچنین، محتوای منتشرشده نباید به‌عنوان توصیه مالی، حقوقی یا حرفه‌ ای تلقی شود و به منزله پیشنهاد یا تأیید رسمی از سوی MEXC نیست.