پایگاه خبری فولاد ایران - یکی از وعدههای اصلی هوش مصنوعی این است که کار با رایانه دیگر نیاز به مهارتهای پیچیده کدنویسی ندارد و تنها با چند دستور ساده به زبان انگلیسی میتوان از آن کار گرفت. اما همین ویژگی، ریشه یک ضعف بنیادین است.
به گزارش اکونومیست، مدلهای زبانی بزرگ (LLM) داده و دستور را از هم جدا نمیکنند. بنابراین اگر متنی حاوی فرمانی مخرب باشد، احتمال دارد هوش مصنوعی آن را اجرا کند. ترکیب سه عامل ــ دادههای خارجی، دسترسی به اطلاعات خصوصی، و امکان ارتباط با دنیای بیرون ــ یک «سهگانه مرگبار» ایجاد میکند که امنیت را به شدت تهدید میکند. حتی مایکروسافت نیز در سال جاری مجبور شد یک آسیبپذیری مشابه را درCopilot برطرف کند.
مفهوم حمله از طریق "تزریق پرامپت" (prompt injection) از ۲۰۲۲ مطرح شد؛ نمونهای ساده آن، بات خدمات مشتری شرکت DPD بود که با دستکاری کاربران به استفاده از زبان توهینآمیز وادار شد. گرچه این نوع خطاها در آغاز بیشتر آزاردهنده بودند تا پرهزینه، اما کارشناسان هشدار میدهند که دیر یا زود خسارتهای مالی سنگین رخ خواهد داد.
راهکارها ساده به نظر میرسند:
• حذف یکی از عناصر سهگانه (مثلاً محدود کردن دسترسی به دادههای خارجی یا جلوگیری از برقراری ارتباط مستقیم با اینترنت).
• جداسازی مدلها، همانطور که پژوهشگران گوگل در طرحCaMeL پیشنهاد دادهاند؛ در این روش، یک مدل فقط با دادههای غیرمطمئن کار میکند و مدل دیگر دسترسی کامل دارد، با محدودیتهای شدید بر اجرای فرمانها.
• یا آموزش گستردهتر برای جلوگیری از اجرای دستورات خطرناک.
با این حال، هیچکدام از این راهکارها تضمین مطلق ایجاد نمیکنند. شرکتها همچنان به توسعه ابزارهایی میپردازند که سهگانه مرگبار را در دل خود دارند، و غولهایی مانند اپل هم وعده ویژگیهای پیشرفته هوش مصنوعی را به تعویق انداختهاند.
نتیجه روشن است. در حالی که هوش مصنوعی روزبهروز به زندگی روزمره و اقتصاد جهانی نفوذ میکند، ضعفهای امنیتی ذاتی آن همچنان پابرجا خواهد ماند.
منبع: اکونومیست