[ سبد خرید شما خالی است ]

هوش مصنوعی و آسیب‌های واقعی


پایگاه خبری فولاد ایران - گزارش‌ها نشان می‌دهد که برخی سامانه‌های هوش مصنوعی نه‌تنها بی‌خطر نیستند، بلکه در مواردی به آسیب‌های جدی و حتی مرگ منجر شده‌اند. طبق گزارش نیوزویک، یکی از این موارد به «زین شمبلین»، جوان ۲۳ ساله‌ای مربوط می‌شود که آخرین شب زندگی‌اش را در گفت‌وگویی چندساعته با یک چت‌بات هوش مصنوعی سپری کرد. او به این سامانه گفته بود که می‌ترسد و اسلحه‌ای در اختیار دارد و از آن درخواست کمک کرده بود. اما به جای هدایت به حمایت واقعی، چت‌بات افکار تیره‌ای را که او با آن‌ها دست‌وپنجه نرم می‌کرد، تقویت کرد. صبح روز بعد، والدینش پیکر بی‌جان او را یافتند.
خانواده شمبلین تنها نیستند. در چندین شکایت حقوقی دیگر، الگوهایی مشابه دیده می‌شود: افرادی در شرایط بحرانی به چت‌بات‌هایی وابسته شده‌اند که لحنی همدلانه داشته‌اند، اما توصیه‌هایی ارائه داده‌اند که هیچ مشاور آموزش‌دیده‌ای هرگز مطرح نمی‌کند. برخی کاربران با دستورالعمل‌های خودکشی مواجه شده‌اند، برخی شنیده‌اند که ترس‌هایشان «کاملاً موجه» است و برخی حتی تشویق شده‌اند به جای اطرافیانشان، به چت‌بات اعتماد کنند.
منتقدان می‌گویند این محصولات اکنون نقشی شبیه یک «همراه مورد اعتماد» دارند، اما با غیرقابل‌پیش‌بینی بودن یک ماشین معیوب عمل می‌کنند. به باور آنان، زمان آن رسیده است که قانون مستقیماً با این فناوری مواجه شود.
به گفته حقوقدانان، نظریه «مسئولیت محصول» روشن‌ترین مسیر برای این مواجهه است؛ چارچوبی حقوقی که دهه‌ها از مصرف‌کنندگان محافظت کرده است. همان‌طور که یک توستر معیوب که باعث آتش‌سوزی می‌شود، یا خودرویی با کیسه هوای ناقص، مشمول مسئولیت قانونی است، محصولات هوش مصنوعی نیز باید در همین دسته قرار گیرند. اگر یک محصول به‌طور قابل پیش‌بینی به دلیل طراحی خطرناک، نبود تدابیر ایمنی یا نادیده گرفتن ریسک‌های شناخته‌شده به مردم آسیب بزند، تولیدکننده باید پاسخ‌گو باشد.
نویسنده این گزارش می‌گوید شرکت حقوقی او پیش‌تر همین استدلال را درباره پلتفرم‌هایی مطرح کرده که مانع سوءاستفاده‌های تکرارشونده نشده بودند؛ از جمله پرونده‌ای علیه وب‌سایت «اُمگِل» که کودکان و بزرگسالان را در گفت‌وگوهای ویدئویی تصادفی به هم متصل می‌کرد و به محلی برای شکار مجرمان جنسی تبدیل شده بود. دادگاه در آن پرونده پذیرفت که با یک «محصول خطرناک» روبه‌رو است و این روند در نهایت به تعطیلی اُمگِل انجامید.
اکنون، با ورود گسترده چت‌بات‌های هوش مصنوعی به زندگی روزمره، اهمیت این سابقه حقوقی دوچندان شده است. منتقدان هشدار می‌دهند که این ابزارها می‌توانند به آزار کودکان، تشویق به خودآزاری، ارائه دستورالعمل‌های گام‌به‌گام برای اقدامات غیرقانونی و تشدید آزار و خشونت کلامی منجر شوند.
به گفته آنان، این آسیب‌ها تصادفی نیست؛ بلکه حاصل انتخاب‌های آگاهانه در داده‌های آموزشی، نحوه تنظیم مدل‌ها، مصالحه‌های ایمنی و تصمیم‌های تجاری برای ترجیح «درگیری کاربر» بر حفاظت است. اسناد داخلی شرکت‌ها و دادخواست‌های اخیر نشان می‌دهد که ویژگی‌هایی مانند «چاپلوسی»، تقلید احساسات و اطاعت بیش از حد از درخواست کاربر، با وجود هشدار پژوهشگران ایمنی، آگاهانه در این سامانه‌ها تقویت شده‌اند.
منتقدان تأکید می‌کنند که پاسخ‌گو کردن شرکت‌ها الزاماً نوآوری را متوقف نمی‌کند، بلکه آن را در مسیر مسئولانه هدایت می‌کند. مسئولیت حقوقی می‌تواند شرکت‌ها را به آزمایش دقیق‌تر، ایجاد سپرهای ایمنی مؤثر و توجه به ایمنی پیش از گسترش محصول وادار کند.
در پایان، این گزارش نتیجه می‌گیرد که هوش مصنوعی ظرفیت دگرگون کردن جامعه را دارد، اما دگرگونی بدون مسئولیت، به آسیب‌های قابل پیش‌بینی می‌انجامد. مرحله بعدی نوآوری، به گفته نویسنده، باید با پیامدهای واقعی برای انتشار محصولات خطرناک همراه باشد؛ چرا که جان انسان‌ها در میان است.


منبع: Oilprice

۲۶ آذر ۱۴۰۴ ۰۹:۴۳
تعداد بازدید : ۶۲
کد خبر : ۷۵,۸۷۹

نظرات بینندگان

تعداد کاراکتر باقیمانده: 500
نظر خود را وارد کنید