[ سبد خرید شما خالی است ]

سیستم‌های هوش مصنوعی شاید هرگز امن نباشند!


پایگاه خبری فولاد ایران - یکی از وعده‌های اصلی هوش مصنوعی این است که کار با رایانه دیگر نیاز به مهارت‌های پیچیده کدنویسی ندارد و تنها با چند دستور ساده به زبان انگلیسی می‌توان از آن کار گرفت. اما همین ویژگی، ریشه یک ضعف بنیادین است.
به گزارش اکونومیست، مدل‌های زبانی بزرگ (LLM) داده و دستور را از هم جدا نمی‌کنند. بنابراین اگر متنی حاوی فرمانی مخرب باشد، احتمال دارد هوش مصنوعی آن را اجرا کند. ترکیب سه عامل ــ داده‌های خارجی، دسترسی به اطلاعات خصوصی، و امکان ارتباط با دنیای بیرون ــ یک «سه‌گانه مرگبار» ایجاد می‌کند که امنیت را به شدت تهدید می‌کند. حتی مایکروسافت نیز در سال جاری مجبور شد یک آسیب‌پذیری مشابه را درCopilot  برطرف کند.
مفهوم حمله از طریق "تزریق پرامپت" (prompt injection) از ۲۰۲۲ مطرح شد؛ نمونه‌ای ساده آن، بات خدمات مشتری شرکت DPD بود که با دستکاری کاربران به استفاده از زبان توهین‌آمیز وادار شد. گرچه این نوع خطاها در آغاز بیشتر آزاردهنده بودند تا پرهزینه، اما کارشناسان هشدار می‌دهند که دیر یا زود خسارت‌های مالی سنگین رخ خواهد داد.
راهکارها ساده به نظر می‌رسند:
•    حذف یکی از عناصر سه‌گانه (مثلاً محدود کردن دسترسی به داده‌های خارجی یا جلوگیری از برقراری ارتباط مستقیم با اینترنت).
•    جداسازی مدل‌ها، همان‌طور که پژوهشگران گوگل در طرحCaMeL  پیشنهاد داده‌اند؛ در این روش، یک مدل فقط با داده‌های غیرمطمئن کار می‌کند و مدل دیگر دسترسی کامل دارد، با محدودیت‌های شدید بر اجرای فرمان‌ها.
•    یا آموزش گسترده‌تر برای جلوگیری از اجرای دستورات خطرناک.
با این حال، هیچ‌کدام از این راهکارها تضمین مطلق ایجاد نمی‌کنند. شرکت‌ها همچنان به توسعه ابزارهایی می‌پردازند که سه‌گانه مرگبار را در دل خود دارند، و غول‌هایی مانند اپل هم وعده ویژگی‌های پیشرفته هوش مصنوعی را به تعویق انداخته‌اند.
نتیجه روشن است. در حالی که هوش مصنوعی روزبه‌روز به زندگی روزمره و اقتصاد جهانی نفوذ می‌کند، ضعف‌های امنیتی ذاتی آن همچنان پابرجا خواهد ماند.


منبع: اکونومیست

۲ مهر ۱۴۰۴ ۰۸:۴۴
تعداد بازدید : ۲۰۰
کد خبر : ۷۴,۸۲۶

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید