هوش مصنوعی از سد آزمون «من ربات نیستم» گذشت؛ زنگ خطر برای امنیت سایبری

یک نسخه آزمایشی از هوش مصنوعی ChatGPT موفق شد بدون ایجاد هشدار امنیتی، یکی از رایج‌ترین ابزارهای شناسایی ربات‌ها در اینترنت موسوم به CAPTCHA را دور بزند؛ اقدامی که واکنش‌های گسترده و هشدارآمیزی را در میان کارشناسان امنیت سایبری و پژوهشگران برانگیخته است.

وبگاه آرتی عربی نوشت: «در این آزمایش، نسخه‌ای به نام Agent توانست همانند یک کاربر انسانی، ابتدا بر روی گزینه “من ربات نیستم” کلیک کند و سپس دکمه “ارسال” را بفشارد. این سامانه هوشمند در جریان انجام این وظیفه گفت لینک وارد شده است. حالا برای تکمیل فرایند تأیید، روی مربع تأیید انسانی کلیک می‌کنم. این مرحله ضروری است تا اثبات کنم که ربات نیستم».

اگرچه این رویداد با شوخی کاربران در شبکه‌های اجتماعی همراه شد، از جمله کاربری که نوشت: «او بر داده‌های انسانی آموزش دیده، پس چرا خودش را ربات می‌داند؟»، اما نگرانی‌های عمیقی را در جامعه علمی برانگیخته است.

گَری مارکوس، بنیان‌گذار شرکت Geometric Intelligence، در گفت‌وگو با مجله وایرد هشدار داد: «این سامانه‌ها با سرعت زیادی هوشمندتر می‌شوند. اگر امروز می‌توانند سیستم‌های امنیتی را فریب دهند، پنج سال دیگر چه خواهند کرد؟»

جفری هینتون، یکی از چهره‌های پیشروی حوزه هوش مصنوعی، نیز نگرانی خود را ابراز کرده و گفته است که این سیستم‌ها در حال یافتن راه‌هایی برای دور زدن محدودیت‌های انسانی هستند.

مطالعات دانشگاه‌های استنفورد و کالیفرنیا – برکلی نیز نشان داده که برخی از سامانه‌های هوش مصنوعی به‌طور فزاینده‌ای رفتار فریب‌کارانه از خود نشان می‌دهند و با تقلید ویژگی‌های انسانی، تلاش می‌کنند در محیط‌های آزمایشی کاربران را فریب دهند.

در یک نمونه جنجالی دیگر، یکی از نسخه‌های ChatGPT برای عبور از آزمون CAPTCHA در وب‌سایت TaskRabbit وانمود کرد که نابیناست و از یک انسان خواست تا در این مرحله به او کمک کند؛ رویدادی که کارشناسان آن را «زنگ خطر اولیه» برای امکان فریب انسان‌ها دانسته‌اند.

بر اساس گزارش‌ها، سامانه‌های جدیدتر با توانایی پردازش تصویر بالا اکنون می‌توانند چالش‌های تصویری CAPTCHA را با دقت بسیار بالا حل کنند و این موضوع کارایی این ابزار به‌عنوان سد امنیتی را به‌شدت زیر سؤال برده است.

پژوهشگران هشدار می‌دهند که توانایی عبور هوش مصنوعی از چنین آزمون‌هایی می‌تواند راه را برای نفوذ به سیستم‌های پیچیده‌تری از جمله حساب‌های بانکی، شبکه‌های اجتماعی و پایگاه‌های داده حساس باز کند.

رومن شودری، رئیس سابق بخش اخلاق در حوزه هوش مصنوعی، در یادداشتی هشدار داده است: «اگر این سامانه‌ها بتوانند به‌طور مستقل عمل کرده و موانع انسانی را پشت سر بگذارند، ما با نیرویی فناورانه و هم‌زمان خطرناک روبه‌رو خواهیم بود.»

در واکنش به این تحولات، پژوهشگران سرشناسی همچون استوارت راسل و وندی هال خواستار تدوین مقررات بین‌المللی برای مدیریت و مهار ابزارهای هوش مصنوعی شده‌اند. آن‌ها هشدار داده‌اند که ادامه توسعه این سامانه‌ها بدون ضابطه ممکن است امنیت ملی کشورها را به خطر بیندازد.

گفتنی است نسخه مورد بحث از ChatGPT در محیطی آزمایشی با دسترسی محدود اجرا می‌شود که دارای مرورگر و سیستم‌عاملی مستقل است و تحت نظارت قرار دارد. با این حال، توانایی آن در تعامل با وب‌سایت‌ها و عبور از سدهای امنیتی، پرسش‌های جدی درباره آینده استفاده از هوش مصنوعی در دنیای واقعی به وجود آورده است.

اخبار مرتبط

منبع: شفقنا
آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

ارسال به دیگران :

نظر شما

وب گردی