دوشنبه ۰۷ ارديبهشت ۱۴۰۵ - ساعت :
۰۶ ارديبهشت ۱۴۰۵ - ۱۹:۲۴

آیا چت‌بات‌ها توانایی تفکر ما را از بین می‌برند؟

آیا چت‌بات‌ها توانایی تفکر ما را از بین می‌برند؟
چت‌بات‌ها مطمئناً می‌توانند دریافت پاسخ‌ها را برای ما آسان‌تر کنند، اما برای مغز ما به چه قیمتی تمام می‌شود؟
کد خبر : ۷۳۵۶۴۹

به گزارش صراط به نقل از ایسنا، سال گذشته محققان آزمایشگاه رسانه موسسه فناوری ماساچوست (MIT) تحقیقات اولیه‌ای را در مورد هزینه‌های شناختی استفاده از چت‌بات برای نوشتن مقاله به اشتراک گذاشتند. اگرچه این مطالعه هنوز مورد بررسی دقیق قرار نگرفته بود؛ یعنی جایی که دانشمندانِ دیگر کیفیت مطالعه را بررسی می‌کنند و به شناسایی خطاها کمک می‌کنند، اما همچنان از طریق رسانه‌های خبری بزرگی مانند مجله TIME به تیتر خبرها راه یافت.

در نگاه اول به نظر می‌رسید که این مطالعه ایده‌ای را که درست به نظر می‌رسید، تأیید می‌کند؛ اینکه برنامه‌های هوش مصنوعی مولد که شامل مدل‌های زبانی بزرگی مانند ChatGPT هستند، در حال فاسد کردن مغز ما هستند.

مطمئناً ناامیدکننده است که زیر هر پست پیش پا افتاده و احمقانه در رسانه‌های اجتماعی نظیر ایکس(توییتر سابق) نگاه کنیم و ببینیم که ارتشی از کاربران از هوش مصنوعی گراک(Grok) می‌پرسند که آیا این درست است یا نه و تفکر انتقادی خود را برون‌سپاری می‌کنند.

حال آیا واقعاً این کار به مغز ما آسیب می‌رساند؟ این موضوع دارای پیچیدگی‌ها و ظرایف بسیاری است.

نویسندگان مطالعه MIT، خود به چندین نکته اشاره می‌کنند. این مطالعه کوچک بود، نتیجه‌گیری‌ها فقط در مورد مقاله‌نویسی صدق می‌کند و ممکن است به سایر وظایف در دنیای واقعی تعمیم داده نشود و همچنین مطالعات بیشتری برای ردیابی تأثیر بلندمدت استفاده از هوش مصنوعی مورد نیاز است.

جالب اینجاست که آزمایشگاه رسانه MIT پس از تغییرات ایجاد شده در سیاست داخلی خود، دیگر در مصاحبه‌های رسانه‌ای در مورد این مطالعه شرکت نمی‌کند.

سارا بکمن(Sarah Beckmann) که ارتباطات آزمایشگاه رسانه MIT را مدیریت می‌کند، می‌گوید: ما مصاحبه‌های رسانه‌ای انجام نمی‌دهیم یا تحقیقاتی را که هنوز توسط همتایان بررسی یا رسماً منتشر نشده‌اند، ترویج نمی‌کنیم. این به ما کمک می‌کند تا از صحت و دقت علمی که با مردم به اشتراک می‌گذاریم، اطمینان حاصل کنیم. بنابراین ما با طیف وسیعی از متخصصان روانشناسی و علوم اجتماعی تماس گرفتیم تا این تحقیق را در چارچوب خود قرار دهیم.

چت‌بات‌ها چگونه بر یادگیری تأثیر می‌گذارند؟

جستجوی وب برای اولین بار در دهه 1990 به طور گسترده در دسترس قرار گرفت و اساساً نحوه یافتن اطلاعات توسط مردم را تغییر داد. هر کسی که به اینترنت دسترسی داشته باشد، به جای رفتن به کتابخانه‌ها و جستجوی دستی اطلاعات در کتاب‌ها می‌تواند فهرستی از وب‌سایت‌ها را که شامل درصد قابل توجهی از دانش کل جهان است، دریافت کند.

روانشناسان کشف کردند که برخی از افراد حقایق ساده‌ای را که به راحتی قابل جستجو بودند، به خاطر نمی‌آورند و برای استخراج این دانش به موتورهای جستجو متکی می‌شوند. در سال ۲۰۱۱، روانشناسان نامی برای این پدیده ابداع کردند که «اثر گوگل» نام داشت.

با توجه به اینکه بسیاری از دانش‌آموزان، معلمان و اساتید از هوش مصنوعی مولد استفاده می‌کنند، آیا این امر تأثیر مشابهی بر نحوه یادگیری و به خاطر سپردن اطلاعات ما دارد؟

مانند گوگل، چت‌بات‌ها تخلیه شناختی را که به معنی برون‌سپاری حافظه و تفکر به ابزارهای دیجیتال است، تسهیل می‌کنند. در حالی که گوگل عمدتاً حافظه را تخلیه می‌کند و همچنان برای یافتن اطلاعات به تعامل فعال کاربران نیاز دارد، چت‌بات‌ها یک تجربه کاربری بسیار منفعل‌تر ارائه می‌دهند.

اگر از ChatGPT بخواهیم که به جای ارائه فهرستی از منابع، نحوه کار سلول‌های مغز را توضیح دهد، تقریباً بلافاصله یک توضیح کوتاه و ساختاریافته می‌نویسد. به طور روایی و با قضاوت بر اساس ترافیک کلیک از ChatGPT و سایر مدل‌های زبانی بزرگ(LLM) محبوب، اکثر مردم از این چت‌بات‌ها منابع نمی‌پرسند یا بررسی نمی‌کنند که اطلاعات ارائه شده توسط آنها دقیق است یا خیر.

معلمان در دوران اوج گوگل به دانش‌آموزان یاد می‌دادند که چگونه بررسی کنند که منابعی که به صورت آنلاین پیدا می‌کنند، قابل اعتماد هستند. مدل‌های زبانی بزرگی که چت‌بات‌ها را نیرو می‌دهند، خروجی‌هایی ارائه می‌دهند که ارزیابی آن دشوارتر است. آنها با مقایسه الگوهای کلمات در پرس‌وجوها با داده‌های آموزشی، استخراج الگوها با استفاده از مدل‌های آماری و پیش‌بینی محتمل‌ترین متن برای پاسخ دادن کار می‌کنند.

نحوه کار مدل‌های زبانی بزرگ، آنها را مستعد همگن‌سازی می‌کند؛ جایی که پاسخ‌هایی که با گذشت زمان ارائه می‌دهند، تمایل به مشابه شدن دارند. چت‌بات‌ها همچنین برای ایجاد ارتباط با شما طراحی شده‌اند و اغلب چاپلوسی می‌کنند تا شما برای مدت طولانی‌تری از آنها استفاده کنید.

درک لیندباوم(Dirk Lindebaum)، استاد دانشگاه بث(Bath) می‌گوید مدل‌های زبانی بزرگ به دلیل نحوه کارشان اساساً عاملیت دانش‌شناختی (توانایی پذیرش مسئولیت، کسب، ارزیابی و ترکیب اطلاعات) را در ما تضعیف می‌کنند. وی استدلال می‌کند که چت‌بات‌ها به جای عوامل دانش‌شناختی، ما را به مصرف‌کنندگان منفعل دانش تبدیل می‌کنند.

لیندباوم همچنین هشدار می‌دهد که مدل‌های زبانی بزرگ تأثیر منفی بر توانایی تفکر انتقادی در مورد فرآیندهای فکری ما و یک توانایی به نام فراشناخت(metacognition) خواهد داشت.

وی افزود: شواهد تجربی نوظهوری وجود دارد که نشان می‌دهد استفاده از هوش مصنوعی برای یادگیری و انجام وظایف، مهارت‌های فراشناختی ما را تضعیف می‌کند. این ممکن است منجر به تقویت کوتاه‌مدت در وظایف خاص شود، اما در درازمدت توانایی پرسیدن انواع سوالات مهمی را که زمینه اطلاعات را فراهم می‌کنند، تضعیف می‌کند.

با این حال، بسیاری از اساتید دانشگاه این نوع هوش مصنوعی را در کلاس درس گنجانده‌اند و بسیاری می‌گویند که گسترش آن به زندگی روزمره اجتناب‌ناپذیر است، نیروی کارِ فردا باید از مهارت‌های هوش مصنوعی استفاده کند و بنابراین ضروری است که در آموزش عالی گنجانده شود.

لیندباوم می‌گوید: بسیار تردید دارم که همکاران دانشگاهی‌ام این کار را انجام دهند، زیرا ادعاهای بازاریابی شرکت‌های هوش مصنوعی را به دانشگاه و بحث‌های دانشگاهی می‌آورد. اگر ناگزیریِ استفاده از هوش مصنوعی را بپذیرم، همزمان مسئولیت دانش‌شناختی خود را به عنوان یک دانشمند علوم اجتماعی کنار می‌گذارم.

لیندباوم به عنوان بخشی از تعهد خود برای اطمینان از عاری بودن تحقیقات و آموزش‌هایی که ارائه می‌دهد از هوش مصنوعی، برای دریافت نشان تجاری بورسیه بدون هوش مصنوعی درخواست داده است.

هزینه واگذاری وظایف شناختی

از اوایل سال ۲۰۲۳، پروفسور ماتیاس استادلر (Mathias Stadler) از دانشگاه LMU در مونیخ آلمان شروع به بررسی تأثیر مدل‌های زبانی بزرگ بر دانشجویان خود کرد. وی یکی از اولین مطالعات مربوط به چت‌بات‌ها را قبل از فراگیر شدن آنها انجام داد. استادلر به یاد می‌آورد که مجبور شد دستورالعمل‌هایی را ارائه دهد تا شرکت‌کنندگان در مطالعه، نحوه استفاده از ChatGPT را درک کنند.

این مطالعه شامل دادن وظیفه‌ای به ۹۱ دانشجو برای تحقیق در مورد نانوذرات موجود در کرم ضد آفتاب بود؛ چیزی که آنها اطلاعات زیادی در مورد آن نداشتند و پس از آن باید بدون یادداشت، توضیحی می‌نوشتند. نیمی از آنها از گوگل (قبل از ادغام پاسخ‌های هوش مصنوعی) و نیمی دیگر از ChatGPT استفاده کردند. استادلر گفت در حالی که دانشجویانی که از چت‌بات استفاده می‌کردند، احساس می‌کردند که این کار بسیار آسان است، به طرز شگفت‌آوری پاسخ‌های بدی دادند.

او معتقد است که عملکرد ضعیف آنها، هزینه تخلیه شناختی به چت‌بات‌ها را نشان می‌دهد. وی اکنون با نسخه‌های جدید چت‌بات‌ها که پاسخ‌های دقیق‌تری ارائه می‌دهند، نگران است که افراد ممکن است در واگذاری کار به این چت‌بات‌ها بهتر شده باشند و همچنین ممکن است باور کنند که اطلاعاتی که دریافت می‌کنند، حتی دقیق‌تر است.

تأثیرات چت‌بات‌ها بر تخلیه شناختی و تفکر انتقادی ممکن است به عوامل فردی نیز بستگی داشته باشد. مطالعه‌ای که امسال در مجله آکادمی مدیریت، یادگیری و آموزش منتشر شد، نتیجه مشابهی را نشان داد.

محققان ۱۵۰ دانشجوی دانشکده بازرگانی را به صورت تصادفی انتخاب کردند. ابتدا همه آنها یک مطالعه موردی را بدون هیچ هوش مصنوعی تکمیل کردند. سپس یک مطالعه موردی دیگر به آنها ارائه شد، اما این بار، نیمی از دانشجویان مجاز به استفاده از ChatGPT بودند. کسانی که در اولین وظیفه عملکرد ضعیفی داشتند، از استفاده از چت‌بات سود بردند، در حالی که کسانی که عملکرد خوبی داشتند، عملکرد ضعیف‌تری با چت‌بات نشان دادند.

در این مورد، لیندباوم معتقد است که چت‌بات‌ها سرعت تکمیل وظیفه را افزایش می‌دهند و در عین حال انتقال دانش را کاهش می‌دهند و این توضیح می‌دهد که چرا دانشجویان ضعیف با کمک ChatGPT عملکرد بهتری داشتند، در حالی که دانش‌آموزان بهتر عملکرد بدتری داشتند.

تخلیه شناختی ممکن است بر تفکر انتقادی نیز تأثیر داشته باشد. یک مطالعه در سال ۲۰۲۵ بیش از ۶۰۰ نفر را در مورد استفاده از هوش مصنوعی مورد بررسی قرار داد و همچنین مهارت‌های تفکر انتقادی آنها را آزمایش کرد. شرکت‌کنندگانی که بیشترین استفاده را از هوش مصنوعی داشتند، سطوح بالاتری از تخلیه شناختی را گزارش کردند و کمترین امتیاز را در تفکر انتقادی کسب کردند.

یک آزمایش تصادفی و کنترل‌شده‌ دیگر با گروهی متشکل از ۱۶۰ دانشجو در حال انجام است تا تأثیر استفاده از هوش مصنوعی مولد بر تلاش شناختی در یک کار نوشتاری را درک کند. این مطالعه شامل ردیابی چشم و تصویربرداری مغز برای جمع‌آوری داده‌های عینی در مورد این است که کدام قسمت‌های مغز هنگام فکر کردن به کار فعال می‌شوند.

استادلر گفت: این مثل فست فود است. در شرایط اضطراری، فست فود بهتر از هیچ چیز است. از سوی دیگر، فقط فست فود خوردن به هیچ وجه سالم نیست.

آیا باید به هوش مصنوعی عادت کنیم؟

بسیاری از متخصصان معتقدند که مردم باید یاد بگیرند چگونه به صورت بهینه و درست از هوش مصنوعی استفاده کنند. آنها معتقدند که این فناوری برای ماندن آمده است.

باربارا لارسن(Barbara Larson)، استاد دانشگاه نورث ایسترن(Northeastern) به دانشجویان خود تفکر انتقادی می‌آموزد، زیرا به گفته‌ او می‌تواند به آنها کمک کند تا عاقلانه از هوش مصنوعی استفاده کنند.

یادگیری در مورد محدودیت‌های LLMها، کنار گذاشتن پاسخ‌های آنها و درخواست از آنها برای توضیح و منبع خروجی خود می‌تواند برخی از پیامدهای منفی را به حداقل برساند.

همه به این هیاهو اعتقاد ندارند. اگرچه هوش مصنوعی مولد در سال ۲۰۲۶ تقریباً فراگیر خواهد بود، شرکت‌هایی مانند اوپن‌ای‌آی (OpenAI) و آنتروپیک(Anthropic) سالانه میلیاردها دلار هزینه می‌کنند و با وجود همه این نگرانی‌ها، بسیاری از دانشگاه‌ها در سراسر جهان در حال امضای قرارداد با شرکت‌های هوش مصنوعی هستند تا دسترسی دانشجویان و اساتید را به چت‌بات‌ها فراهم کنند.

برخی از اعضای هیئت علمی در حال مقابله با مدیران دانشگاه خود هستند، به این امید که آنها را از تمدید قرارداد با شرکت‌های هوش مصنوعی بازدارند.

لیندباوم می‌گوید: به نظر می‌رسد بسیاری از دانشگاهیان ادعاهای بازاریابی شرکت‌های هوش مصنوعی را با حقایق علمی اشتباه می‌گیرند. این چیزی است که من آن را نسبتاً گیج‌کننده می‌دانم.

بدون درک روشن از خطرات، برخی ممکن است به دلیل آسان‌تر بودن، به استفاده از چت‌بات‌ها روی آورند. بسیاری از دانشجویان و محققان به شکل نامناسب از این مدل‌ها استفاده می‌کنند. این موضوع به دلیل فقدان ابزارهای قابل اعتماد تشخیص هوش مصنوعی، پیچیده است.

برای شریل واکسلاک(Cheryl Wakslak)، دانشیار و محقق USC، فرصت مطالعه تأثیرات هوش مصنوعی مولد می‌تواند به حوزه علوم اجتماعی کمک کند تا پس از عدم موفقیت در مطالعه پیشگیرانه تأثیر رسانه‌های اجتماعی، به رستگاری برسند. واکسلاک می‌گوید: ما به عنوان یک جامعه علوم اجتماعی، باید این بار این کار را بهتر انجام دهیم.

واکسلاک توضیح داد که تاکنون، دانشمندان علوم اجتماعی و روانشناسان، اثرات چت‌بات‌ها را در چند لحظه بسیار خاص از زمان ثبت کرده‌اند. او و دیگر دانشمندان هنوز در حال جمع‌آوری داده‌ها هستند تا بفهمند که با استفاده مداوم از هوش مصنوعی چه اتفاقی می‌افتد و چگونه بر مغز تأثیر می‌گذارد.

دلیل دیگر اینکه پاسخ روشنی برای این سوال وجود ندارد که تا حدودی به دلیل سرعت به‌روزرسانی و انتشار مدل‌های زبانی بزرگ است. استادلر توضیح داد که تا زمانی که تحقیقات به خوبی انجام شود، چت‌بات‌های هوش مصنوعی مورد استفاده در آنها منسوخ شده‌اند. از سوی دیگر نیز اگر محققان این مطالعه را به سرعت انجام دهند، دقیق نخواهد بود.

حکم علمی که به آرامی در حال تکامل در مورد هوش مصنوعی مولد است، هنوز رضایت‌بخش نیست و به تیترهای جذاب نمی‌رسد، اما در حالی که مطالعات دقیق و بررسی‌شده زیادی در مورد اثرات بلندمدت این چت‌بات‌ها بر مغز وجود ندارد، دلایل کافی برای کارشناسان وجود دارد تا نگرانی‌های خود را مطرح کنند.