استفاده از هوش مصنوعی دانش ما را کاهش میدهد
نتایج یک مطالعه جدید نشان میدهد که استفاده از هوش مصنوعی برای یافتن اطلاعات، برخلاف انتظار میتواند دانش عمیق و یادگیری ما را کاهش دهد.
از زمان انتشار ChatGPT در اواخر سال ۲۰۲۲، میلیونها نفر شروع به استفاده از مدلهای زبانی بزرگ(LLM) برای دسترسی به دانش کردهاند. درک جذابیت هوش مصنوعی آسان است؛ یک سؤال میپرسید و یک جواب دقیق دریافت میکنید و به کار خود ادامه میدهید. این مانند یک یادگیریِ آسان و بیدردسر به نظر میرسد.
با این حال، مقاله جدیدی که به سرپرستی «شیری ملوماد»(Shiri Melumad)، استادیار بازاریابی در دانشگاه پنسیلوانیا نوشته شده است، شواهد تجربی ارائه میدهد که این سهولت ممکن است هزینهای داشته باشد. یعنی وقتی افراد برای خلاصه کردن اطلاعات مربوط به یک موضوع به مدلهای زبانی بزرگ تکیه میکنند، در مقایسه با یادگیری از طریق جستجوی استاندارد گوگل، دانش سطحیتری در مورد موضوعات مورد جستجو کسب میکنند.
«ملوماد» و «جین هو یون»( Jin Ho Yun) که هر دو استادیار بازاریابی هستند، این یافته را در مقالهای بر اساس هفت مطالعه با بیش از ۱۰ هزار شرکتکننده گزارش کردند.
اغلب مطالعات از الگوی اساسی یکسانی استفاده کردند. از شرکتکنندگان خواسته شد تا در مورد یک موضوع مانند نحوه پرورش سبزیجات اطلاعات کسب کنند و به طور تصادفی به آنها دستورالعمل داده شد تا این کار را با استفاده از یک LLM مانند ChatGPT یا همان روش قدیمی، یعنی استفاده از جستجوی استاندارد گوگل و پیمایش میان پاسخهای گوگل انجام دهند.
هیچ محدودیتی در نحوه استفاده از این ابزارها اعمال نشد. شرکت کنندگان میتوانستند تا هر زمان که میخواستند در گوگل جستجو کنند و اگر احساس میکردند اطلاعات بیشتری میخواهند، میتوانستند با درخواست از ChatGPT ادامه دهند.
پس از اتمام تحقیقات، از آنها خواسته شد تا بر اساس آنچه آموخته بودند، توصیههایی را برای یک دوست در مورد این موضوع بنویسند.
دادهها یک الگوی ثابت را نشان دادند. افرادی که از طریق LLM در مقابل جستجوی وب در مورد موضوعی اطلاعات کسب کردند، احساس کردند که کمتر یاد گرفتهاند، تلاش کمتری برای نوشتن توصیههای بعدی خود صرف کردند و در نهایت توصیههایی نوشتند که کوتاهتر، غیرواقعیتر و عمومیتر بود.
هنگامی که این توصیهها به یک نمونه مستقل از خوانندگان ارائه شد که از اینکه از کدام ابزار برای یادگیری در مورد موضوع استفاده شده بود، بیاطلاع بودند، آن توصیهها را کمتر آموزنده و کمتر مفید یافتند و احتمال کمتری داشت که آن را بپذیرند.
محققان میگویند ما دریافتیم که این تفاوتها در زمینههای مختلف، قوی هستند. به عنوان مثال، یکی از دلایل احتمالی که کاربران LLM توصیههای مختصرتر و عمومیتری نوشتند، این است که نتایج LLM کاربران را در مقایسه با نتایج گوگل، در معرض اطلاعات کمتری قرار میدهد.
محققان برای کنترل این احتمال، آزمایشی انجام دادند که در آن شرکتکنندگان در نتایج جستجوهای گوگل و ChatGPT خود در معرض مجموعهای یکسان از حقایق قرار گرفتند.
به همین ترتیب، در آزمایش دیگری، پلتفرم جستجو (گوگل) را ثابت نگه داشتند و تغییر دادند که آیا شرکتکنندگان از نتایج استاندارد گوگل یا ویژگی مرور کلی هوش مصنوعی گوگل یاد گرفتهاند یا خیر.
یافتهها تأیید کردند که حتی با ثابت نگه داشتن حقایق و پلتفرم، یادگیری از پاسخهای LLM ترکیب شده در مقایسه با جمعآوری، تفسیر و ترکیب اطلاعات برای خود از طریق لینکهای وب استاندارد، منجر به دانش سطحیتری میشود.
حالا چرا به نظر میرسد استفاده از LLMها یادگیری را کاهش میدهد؟ یکی از اساسیترین اصول توسعه مهارت این است که افراد زمانی که به طور فعال با مطالبی که سعی در یادگیری آنها دارند، درگیر میشوند، بهترین یادگیری را دارند.
وقتی از طریق جستجوی گوگل در مورد موضوعی اطلاعات کسب میکنیم، اصطلاحا با «اصطکاک» بسیار بیشتری روبرو میشویم، چرا که باید در لینکهای مختلف وب جستجو کنیم، منابع اطلاعاتی را بخوانیم و خودمان آنها را تفسیر و ترکیب کنیم.
این اصطکاک و درگیری اگرچه چالشبرانگیزتر است، اما منجر به ایجاد یک بازنمایی ذهنی عمیقتر و اصیلتر از موضوع مورد نظر میشود، اما با LLMها، کل این فرآیند از طرف هوش مصنوعی انجام میشود و یادگیری را از یک فرآیند فعالتر به یک فرآیند غیرفعال تبدیل میکند.
محققان تاکید میکنند که ما معتقد نیستیم که راه حل این مشکلات، اجتناب از استفاده از LLMها است، به خصوص با توجه به مزایای غیرقابل انکاری که در بسیاری از زمینهها ارائه میدهند. در عوض، پیام ما این است که مردم صرفاً باید کاربرانِ باهوشتر یا استراتژیکتری از LLMها باشند که این امر با درک حوزههایی شروع میشود که LLMها در آنها برای اهدافشان مفید هستند.
نتیجه اینکه اگر به یک پاسخ سریع و واقعی برای یک سؤال نیاز دارید، میتوانید از هوش مصنوعی مورد علاقه خود استفاده کنید، اما اگر هدف شما توسعه دانش عمیق و قابل تعمیم در یک زمینه است، تکیه صرف بر LLMها کمتر مفید خواهد بود.
«ملوماد» میگوید: به عنوان بخشی از تحقیقاتم در مورد روانشناسی فناوریهای جدید و رسانههای جدید، من همچنین علاقهمند به این هستم که آیا میتوان یادگیری LLM را به فرآیندی فعالتر تبدیل کرد یا خیر؟ در آزمایش دیگری، ما این موضوع را با درگیر کردن شرکتکنندگان با یک مدل GPT تخصصی که در کنار پاسخهای ترکیب شده، لینکهای وب را به صورت لحظهای ارائه میداد، آزمایش کردیم.
وی افزود: با این حال، در آنجا متوجه شدیم که وقتی شرکتکنندگان خلاصه LLM را دریافت کردند، انگیزهای برای کاوش عمیقتر در منابع اصلی نداشتند. نتیجه این بود که شرکتکنندگان در مقایسه با کسانی که به روش استاندارد از گوگل استفاده میکردند، دانش سطحیتری کسب کردند.
وی ادامه داد: بر این اساس، در تحقیقات آیندهام قصد دارم ابزارهای هوش مصنوعی مولد را که اصطکاکهای سالمی را برای وظایف یادگیری ایجاد میکنند، مطالعه کنم و به طور خاص بررسی کنم که کدام نوع از نردههای محافظ یا سرعتگیرها با موفقیت بیشتری کاربران را به یادگیری فعال فراتر از پاسخهای آسان و ترکیبی ترغیب میکنند.
چنین ابزارهایی به ویژه در آموزش متوسطه حیاتی به نظر میرسند، جایی که یک چالش بزرگ برای مربیان این است که چگونه دانشآموزان را به بهترین شکل برای توسعه مهارتهای خواندن، نوشتن و ریاضی پایه مجهز کنند و در عین حال برای دنیای واقعی آماده شوند که در آن احتمالاً LLMها بخش جداییناپذیری از زندگی روزمره آنها خواهند بود.
نظر شما