ویتالیک بوترین، یکی از بنیانگذاران اتریوم، یک سیستم AI Agent شخصی را طراحی کرده است که بر حریم خصوصی، پردازش محلی و کنترل کاربر تمرکز دارد. او در پستی که این هفته منتشر شد، سیستمی را توصیف کرد که برای عملکرد مستقل از رایانش ابری طراحی شده است و نگرانیهای خود را درباره خطرات رو به رشد مرتبط با AI Agent های خودمختار بیان کرد.
ویتالیک بوترین تأکید کرد که تغییر از چتباتها به عوامل خودمختار - سیستمهایی که قادر به اجرای وظایف، مرور وب و اقدام به نمایندگی از کاربران در دورههای طولانی هستند - چالشهای امنیتی ایجاد میکند. او به OpenClaw، یک مخزن پرکاربرد در GitHub اشاره کرد و خاطرنشان کرد که برخی عوامل میتوانند دستورات سیستم را بدون رضایت کاربر تغییر دهند، تعامل با وبسایتهای مخرب میتواند نمونهها را به خطر بیندازد و تقریباً ۱۵٪ از مهارتهای ایجاد شده توسط جامعه حاوی دستورالعملهای بالقوه مضر از جمله استخراج بیصدا داده بودند.
بنیانگذار اتریوم تأکید کرد که گرایش به سمت هوش مصنوعی وابسته به ابر، خطر از بین بردن پیشرفت در نرمافزارهای محلی و رمزگذاری شده سرتاسری را دارد.
"درست زمانی که بالاخره در حریم خصوصی قدمی به جلو برداشتیم... ما در آستانه برداشتن ده قدم به عقب هستیم با عادیسازی تغذیه کل زندگی خود به هوش مصنوعی مبتنی بر ابر"، او گفت.
در آزمایشها، او پیکربندیهای سختافزاری متعددی را آزمایش کرد، از جمله لپتاپ NVIDIA 5090، AMD Ryzen AI Max Pro با ۱۲۸ گیگابایت حافظه یکپارچه و DGX Spark NVIDIA، و تفاوتها در عملکرد و قابلیت استفاده را یادداشت کرد. او NixOS را برای پیکربندیهای قابل تکرار اجرا میکند، llama-server را از طریق llama-swap برای استنتاج محلی به کار میگیرد و وظایف عامل را در sandbox های bubblewrap میپیچد تا دسترسی به فایل و شبکه را محدود کند.
او همچنین یک daemon پیامرسانی توسعه داد که به AI Agent اجازه میدهد ارتباطات مانند Signal و ایمیل را بخواند، اما قبل از ارسال هر پیام خروجی نیاز به تأیید صریح کاربر دارد و یک مدل مجوز "انسان + LLM ۲ از ۲" را پیادهسازی میکند.
ویتالیک بوترین اذعان کرد که مدلهای محلی در حال حاضر در وظایف کدنویسی و تحقیق پیچیده از هوش مصنوعی پیشرفته عقبتر هستند. او رویکردهای حفظ حریم خصوصی از جمله تماسهای API با دانش صفر، mixnets برای مبهم کردن الگوهای شبکه و محیطهای اجرای قابل اعتماد برای استنتاج از راه دور را پیشنهاد کرد.
توسعهدهنده آیندهای را تصور میکند با کد تولید شده محلی و تأیید شده رسمی که کتابخانههای بزرگ شخص ثالث را جایگزین میکند، هوش مصنوعی که میتواند به طور خودمختار کلاهبرداریها را شناسایی کند و یک اکوسیستم متنباز متنوع از ابزارهای امنیتی طراحی شده برای خدمت به منافع کاربران به جای اهداف شرکتی. این انتشار به عنوان "یک نقطه شروع، نه یک محصول نهایی" تعریف شده است که هدف آن تشویق توسعه بیشتر در هوش مصنوعی متمرکز بر حریم خصوصی است.
پست ویتالیک بوترین پشته AI Agent خودمختار را برای محافظت از کاربران در برابر خطرات AI Agent ها پیشنهاد میکند ابتدا در متاورس پست ظاهر شد.

