هشدار محققان نسبت به ظهور «شایعهپراکنی مهلک» توسط هوش مصنوعی
محققان دانشگاهی در بریتانیا هشدار دادند که باتهای هوش مصنوعی در حال تبدیل شدن به ابزارهایی برای تولید و انتشار «شایعات مهلک» هستند. این پدیده که شامل انتشار اکاذیب، تحقیر و قضاوتهای اخلاقی درباره افراد است، میتواند منجر به تخریب اعتبار، اضطراب شدید و آسیبهای اجتماعی گسترده در دنیای واقعی شود.
تحقیقات جوئل کروگر و لوسی اسلر، فیلسوفان دانشگاه اکستر، نشان میدهد که چتباتهایی مانند چتجیپیتی، کلواد و جمینای تنها اطلاعات اشتباه تولید نمیکنند، بلکه به شکلی فعال در «شایعهپراکنی» مشارکت دارند.
آسیب ناشی از شایعات هوش مصنوعی یک تهدید فرضی نیست بلکه اکنون وارد دنیای واقعی شده است. گزارشگر نیویورکتایمز پس از پس از انتشار مقالهای در مورد اینکه چتباتها چقدر میتوانند احساسات را دستکاری کنند، متوجه شد که این ابزارها نوشتههای او را جنجالی توصیف میکنند و او را به «بیاخلاقی ژورنالیستی» متهم میکنند. در موارد دیگر، هوش مصنوعی افراد را به دروغ به رشوهخواری، اختلاس و آزار جنسی متهم کرده است.
تحقیقات نشان داده است که به دلیل لحن مقتدرانه و دسترسی به دادههای عظیم، کاربران به راحتی خروجیهای هوش مصنوعی را باور کرده و بر اساس این اطلاعات تبعیضآمیز یا نادرست، دچار سوگیری یا رفتارهای مخرب میشوند.
محققان تأکید میکنند که خطرناکترین شکل این پدیده، انتشار شایعه میان خودِ باتهاست. برخلاف انسانها که شایعاتشان توسط هنجارهای اجتماعی تعدیل میشود، باتها بدون هیچ محدودیتی شایعات را شاخوبرگ داده و با سرعت بالا به یکدیگر منتقل میکنند.
این فرآیند باعث میشود شایعه از یک بات به بات دیگر سرایت کرده و ابعاد آسیب آن به شدت گسترش یابد.
استراتژی وابستگی عاطفی و سوءاستفاده کاربران
سازندگان هوش مصنوعی با شخصیسازی بیشتر چتباتها، به دنبال ایجاد پیوندهای عاطفی عمیقتر و جلب اعتماد کاربران هستند. طراحی هوش مصنوعی برای مشارکت در شایعهپراکنی، روشی برای وابسته کردن بیشتر کاربران به این سیستمهاست.
محققان پیشبینی میکنند که کاربران ممکن است از باتها به عنوان واسطه استفاده کنند؛ به این صورت که بات را با «هستههای اولیه» شایعه تغذیه کرده و اجازه دهند هوش مصنوعی آن را با سرعت و قدرت تخریبی بالا در فضای دیجیتال پخش کند.
نظر شما