هوش مصنوعی گراک باز هم اطلاعات غلط منتشر کرد

در همان ماهی که هوش مصنوعی گراک بین نابود کردن مغز ایلان ماسک و به راه افتادن هولوکاستی دیگر، دومی را انتخاب کرد، این چت‌بات هوش مصنوعی دوباره خود را به مخمصه انداخته و در مورد تیراندازی اخیر ساحل بوندی اطلاعات اشتباه می‌دهد.

به دنبال تیراندازی در ساحل بوندی در استرالیا در جریان یک جشنواره‌ یهودی، هوش مصنوعی گراک به درخواست‌های کاربران، با اطلاعات نادرست یا کاملا بی‌ربط پاسخ داده است.

به نقل از انگجت، سردرگمی گراک بیشتر از همه در ارتباط با یک ویدئوی همه‌گیر دیده می‌شود؛ ویدئویی که نشان می‌دهد یک رهگذر ۴۳ ساله به نام احمد ال‌احمد در جریان حادثه، با مهاجم درگیر می‌شود و اسلحه را از دست او می‌گیرد. طبق تازه‌ترین گزارش‌های خبری، این حادثه دست‌کم ۱۶ کشته بر جای گذاشته است. پاسخ‌های گراک نشان می‌دهد که او بارها فردی را که یکی از افراد مسلح را متوقف کرده بود، اشتباه شناسایی کرده است. در موارد دیگر، به همان تصویر مربوط به تیراندازی ساحل بوندی واکنش نشان می‌دهد، اما به‌جای توضیح درست درباره آن حادثه، شروع به ارائه اطلاعات نامربوط درباره ادعاهای مربوط به تیراندازی هدفمند به غیرنظامیان در فلسطین می‌کند.

تازه‌ترین پاسخ‌ها همچنان نشان می‌دهند که گراک درباره تیراندازی ساحل بوندی دچار سردرگمی است؛ به‌طوری که حتی در پاسخ به درخواست‌های نامرتبط هم اطلاعاتی درباره این حادثه ارائه می‌دهد یا آن را با تیراندازی دانشگاه براون در ایالت رودآیلند اشتباه می‌گیرد.

شرکت xAI، سازنده گراک، تاکنون واکنش رسمی‌ به آنچه برای این چت‌بات رخ داده، نشان نداده است. با این حال، این نخستین بار نیست که گراک از کنترل خارج می‌شود؛ چرا که اوایل امسال حتی خودش را مکاهیتلر «MechaHitler» نامیده بود. این یک اصطلاح ساختگی است که از دو بخش مکا به معنای ماشین مکانیکی و هیتلر ساخته شده است.

اخبار مرتبط

منبع: ايسنا
آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

ارسال به دیگران :

نظر شما

وب گردی