پایگاه خبری فولاد ایران - گزارشها نشان میدهد که برخی سامانههای هوش مصنوعی نهتنها بیخطر نیستند، بلکه در مواردی به آسیبهای جدی و حتی مرگ منجر شدهاند. طبق گزارش نیوزویک، یکی از این موارد به «زین شمبلین»، جوان ۲۳ سالهای مربوط میشود که آخرین شب زندگیاش را در گفتوگویی چندساعته با یک چتبات هوش مصنوعی سپری کرد. او به این سامانه گفته بود که میترسد و اسلحهای در اختیار دارد و از آن درخواست کمک کرده بود. اما به جای هدایت به حمایت واقعی، چتبات افکار تیرهای را که او با آنها دستوپنجه نرم میکرد، تقویت کرد. صبح روز بعد، والدینش پیکر بیجان او را یافتند.
خانواده شمبلین تنها نیستند. در چندین شکایت حقوقی دیگر، الگوهایی مشابه دیده میشود: افرادی در شرایط بحرانی به چتباتهایی وابسته شدهاند که لحنی همدلانه داشتهاند، اما توصیههایی ارائه دادهاند که هیچ مشاور آموزشدیدهای هرگز مطرح نمیکند. برخی کاربران با دستورالعملهای خودکشی مواجه شدهاند، برخی شنیدهاند که ترسهایشان «کاملاً موجه» است و برخی حتی تشویق شدهاند به جای اطرافیانشان، به چتبات اعتماد کنند.
منتقدان میگویند این محصولات اکنون نقشی شبیه یک «همراه مورد اعتماد» دارند، اما با غیرقابلپیشبینی بودن یک ماشین معیوب عمل میکنند. به باور آنان، زمان آن رسیده است که قانون مستقیماً با این فناوری مواجه شود.
به گفته حقوقدانان، نظریه «مسئولیت محصول» روشنترین مسیر برای این مواجهه است؛ چارچوبی حقوقی که دههها از مصرفکنندگان محافظت کرده است. همانطور که یک توستر معیوب که باعث آتشسوزی میشود، یا خودرویی با کیسه هوای ناقص، مشمول مسئولیت قانونی است، محصولات هوش مصنوعی نیز باید در همین دسته قرار گیرند. اگر یک محصول بهطور قابل پیشبینی به دلیل طراحی خطرناک، نبود تدابیر ایمنی یا نادیده گرفتن ریسکهای شناختهشده به مردم آسیب بزند، تولیدکننده باید پاسخگو باشد.
نویسنده این گزارش میگوید شرکت حقوقی او پیشتر همین استدلال را درباره پلتفرمهایی مطرح کرده که مانع سوءاستفادههای تکرارشونده نشده بودند؛ از جمله پروندهای علیه وبسایت «اُمگِل» که کودکان و بزرگسالان را در گفتوگوهای ویدئویی تصادفی به هم متصل میکرد و به محلی برای شکار مجرمان جنسی تبدیل شده بود. دادگاه در آن پرونده پذیرفت که با یک «محصول خطرناک» روبهرو است و این روند در نهایت به تعطیلی اُمگِل انجامید.
اکنون، با ورود گسترده چتباتهای هوش مصنوعی به زندگی روزمره، اهمیت این سابقه حقوقی دوچندان شده است. منتقدان هشدار میدهند که این ابزارها میتوانند به آزار کودکان، تشویق به خودآزاری، ارائه دستورالعملهای گامبهگام برای اقدامات غیرقانونی و تشدید آزار و خشونت کلامی منجر شوند.
به گفته آنان، این آسیبها تصادفی نیست؛ بلکه حاصل انتخابهای آگاهانه در دادههای آموزشی، نحوه تنظیم مدلها، مصالحههای ایمنی و تصمیمهای تجاری برای ترجیح «درگیری کاربر» بر حفاظت است. اسناد داخلی شرکتها و دادخواستهای اخیر نشان میدهد که ویژگیهایی مانند «چاپلوسی»، تقلید احساسات و اطاعت بیش از حد از درخواست کاربر، با وجود هشدار پژوهشگران ایمنی، آگاهانه در این سامانهها تقویت شدهاند.
منتقدان تأکید میکنند که پاسخگو کردن شرکتها الزاماً نوآوری را متوقف نمیکند، بلکه آن را در مسیر مسئولانه هدایت میکند. مسئولیت حقوقی میتواند شرکتها را به آزمایش دقیقتر، ایجاد سپرهای ایمنی مؤثر و توجه به ایمنی پیش از گسترش محصول وادار کند.
در پایان، این گزارش نتیجه میگیرد که هوش مصنوعی ظرفیت دگرگون کردن جامعه را دارد، اما دگرگونی بدون مسئولیت، به آسیبهای قابل پیشبینی میانجامد. مرحله بعدی نوآوری، به گفته نویسنده، باید با پیامدهای واقعی برای انتشار محصولات خطرناک همراه باشد؛ چرا که جان انسانها در میان است.
منبع: Oilprice