به گزارش صراط به نقل از ایسنا، سال گذشته محققان آزمایشگاه رسانه موسسه فناوری ماساچوست (MIT) تحقیقات اولیهای را در مورد هزینههای شناختی استفاده از چتبات برای نوشتن مقاله به اشتراک گذاشتند. اگرچه این مطالعه هنوز مورد بررسی دقیق قرار نگرفته بود؛ یعنی جایی که دانشمندانِ دیگر کیفیت مطالعه را بررسی میکنند و به شناسایی خطاها کمک میکنند، اما همچنان از طریق رسانههای خبری بزرگی مانند مجله TIME به تیتر خبرها راه یافت.
در نگاه اول به نظر میرسید که این مطالعه ایدهای را که درست به نظر میرسید، تأیید میکند؛ اینکه برنامههای هوش مصنوعی مولد که شامل مدلهای زبانی بزرگی مانند ChatGPT هستند، در حال فاسد کردن مغز ما هستند.
مطمئناً ناامیدکننده است که زیر هر پست پیش پا افتاده و احمقانه در رسانههای اجتماعی نظیر ایکس(توییتر سابق) نگاه کنیم و ببینیم که ارتشی از کاربران از هوش مصنوعی گراک(Grok) میپرسند که آیا این درست است یا نه و تفکر انتقادی خود را برونسپاری میکنند.
حال آیا واقعاً این کار به مغز ما آسیب میرساند؟ این موضوع دارای پیچیدگیها و ظرایف بسیاری است.
نویسندگان مطالعه MIT، خود به چندین نکته اشاره میکنند. این مطالعه کوچک بود، نتیجهگیریها فقط در مورد مقالهنویسی صدق میکند و ممکن است به سایر وظایف در دنیای واقعی تعمیم داده نشود و همچنین مطالعات بیشتری برای ردیابی تأثیر بلندمدت استفاده از هوش مصنوعی مورد نیاز است.
جالب اینجاست که آزمایشگاه رسانه MIT پس از تغییرات ایجاد شده در سیاست داخلی خود، دیگر در مصاحبههای رسانهای در مورد این مطالعه شرکت نمیکند.
سارا بکمن(Sarah Beckmann) که ارتباطات آزمایشگاه رسانه MIT را مدیریت میکند، میگوید: ما مصاحبههای رسانهای انجام نمیدهیم یا تحقیقاتی را که هنوز توسط همتایان بررسی یا رسماً منتشر نشدهاند، ترویج نمیکنیم. این به ما کمک میکند تا از صحت و دقت علمی که با مردم به اشتراک میگذاریم، اطمینان حاصل کنیم. بنابراین ما با طیف وسیعی از متخصصان روانشناسی و علوم اجتماعی تماس گرفتیم تا این تحقیق را در چارچوب خود قرار دهیم.
چتباتها چگونه بر یادگیری تأثیر میگذارند؟
جستجوی وب برای اولین بار در دهه 1990 به طور گسترده در دسترس قرار گرفت و اساساً نحوه یافتن اطلاعات توسط مردم را تغییر داد. هر کسی که به اینترنت دسترسی داشته باشد، به جای رفتن به کتابخانهها و جستجوی دستی اطلاعات در کتابها میتواند فهرستی از وبسایتها را که شامل درصد قابل توجهی از دانش کل جهان است، دریافت کند.
روانشناسان کشف کردند که برخی از افراد حقایق سادهای را که به راحتی قابل جستجو بودند، به خاطر نمیآورند و برای استخراج این دانش به موتورهای جستجو متکی میشوند. در سال ۲۰۱۱، روانشناسان نامی برای این پدیده ابداع کردند که «اثر گوگل» نام داشت.
با توجه به اینکه بسیاری از دانشآموزان، معلمان و اساتید از هوش مصنوعی مولد استفاده میکنند، آیا این امر تأثیر مشابهی بر نحوه یادگیری و به خاطر سپردن اطلاعات ما دارد؟
مانند گوگل، چتباتها تخلیه شناختی را که به معنی برونسپاری حافظه و تفکر به ابزارهای دیجیتال است، تسهیل میکنند. در حالی که گوگل عمدتاً حافظه را تخلیه میکند و همچنان برای یافتن اطلاعات به تعامل فعال کاربران نیاز دارد، چتباتها یک تجربه کاربری بسیار منفعلتر ارائه میدهند.
اگر از ChatGPT بخواهیم که به جای ارائه فهرستی از منابع، نحوه کار سلولهای مغز را توضیح دهد، تقریباً بلافاصله یک توضیح کوتاه و ساختاریافته مینویسد. به طور روایی و با قضاوت بر اساس ترافیک کلیک از ChatGPT و سایر مدلهای زبانی بزرگ(LLM) محبوب، اکثر مردم از این چتباتها منابع نمیپرسند یا بررسی نمیکنند که اطلاعات ارائه شده توسط آنها دقیق است یا خیر.
معلمان در دوران اوج گوگل به دانشآموزان یاد میدادند که چگونه بررسی کنند که منابعی که به صورت آنلاین پیدا میکنند، قابل اعتماد هستند. مدلهای زبانی بزرگی که چتباتها را نیرو میدهند، خروجیهایی ارائه میدهند که ارزیابی آن دشوارتر است. آنها با مقایسه الگوهای کلمات در پرسوجوها با دادههای آموزشی، استخراج الگوها با استفاده از مدلهای آماری و پیشبینی محتملترین متن برای پاسخ دادن کار میکنند.
نحوه کار مدلهای زبانی بزرگ، آنها را مستعد همگنسازی میکند؛ جایی که پاسخهایی که با گذشت زمان ارائه میدهند، تمایل به مشابه شدن دارند. چتباتها همچنین برای ایجاد ارتباط با شما طراحی شدهاند و اغلب چاپلوسی میکنند تا شما برای مدت طولانیتری از آنها استفاده کنید.
درک لیندباوم(Dirk Lindebaum)، استاد دانشگاه بث(Bath) میگوید مدلهای زبانی بزرگ به دلیل نحوه کارشان اساساً عاملیت دانششناختی (توانایی پذیرش مسئولیت، کسب، ارزیابی و ترکیب اطلاعات) را در ما تضعیف میکنند. وی استدلال میکند که چتباتها به جای عوامل دانششناختی، ما را به مصرفکنندگان منفعل دانش تبدیل میکنند.
لیندباوم همچنین هشدار میدهد که مدلهای زبانی بزرگ تأثیر منفی بر توانایی تفکر انتقادی در مورد فرآیندهای فکری ما و یک توانایی به نام فراشناخت(metacognition) خواهد داشت.
وی افزود: شواهد تجربی نوظهوری وجود دارد که نشان میدهد استفاده از هوش مصنوعی برای یادگیری و انجام وظایف، مهارتهای فراشناختی ما را تضعیف میکند. این ممکن است منجر به تقویت کوتاهمدت در وظایف خاص شود، اما در درازمدت توانایی پرسیدن انواع سوالات مهمی را که زمینه اطلاعات را فراهم میکنند، تضعیف میکند.
با این حال، بسیاری از اساتید دانشگاه این نوع هوش مصنوعی را در کلاس درس گنجاندهاند و بسیاری میگویند که گسترش آن به زندگی روزمره اجتنابناپذیر است، نیروی کارِ فردا باید از مهارتهای هوش مصنوعی استفاده کند و بنابراین ضروری است که در آموزش عالی گنجانده شود.
لیندباوم میگوید: بسیار تردید دارم که همکاران دانشگاهیام این کار را انجام دهند، زیرا ادعاهای بازاریابی شرکتهای هوش مصنوعی را به دانشگاه و بحثهای دانشگاهی میآورد. اگر ناگزیریِ استفاده از هوش مصنوعی را بپذیرم، همزمان مسئولیت دانششناختی خود را به عنوان یک دانشمند علوم اجتماعی کنار میگذارم.
لیندباوم به عنوان بخشی از تعهد خود برای اطمینان از عاری بودن تحقیقات و آموزشهایی که ارائه میدهد از هوش مصنوعی، برای دریافت نشان تجاری بورسیه بدون هوش مصنوعی درخواست داده است.
هزینه واگذاری وظایف شناختی
از اوایل سال ۲۰۲۳، پروفسور ماتیاس استادلر (Mathias Stadler) از دانشگاه LMU در مونیخ آلمان شروع به بررسی تأثیر مدلهای زبانی بزرگ بر دانشجویان خود کرد. وی یکی از اولین مطالعات مربوط به چتباتها را قبل از فراگیر شدن آنها انجام داد. استادلر به یاد میآورد که مجبور شد دستورالعملهایی را ارائه دهد تا شرکتکنندگان در مطالعه، نحوه استفاده از ChatGPT را درک کنند.
این مطالعه شامل دادن وظیفهای به ۹۱ دانشجو برای تحقیق در مورد نانوذرات موجود در کرم ضد آفتاب بود؛ چیزی که آنها اطلاعات زیادی در مورد آن نداشتند و پس از آن باید بدون یادداشت، توضیحی مینوشتند. نیمی از آنها از گوگل (قبل از ادغام پاسخهای هوش مصنوعی) و نیمی دیگر از ChatGPT استفاده کردند. استادلر گفت در حالی که دانشجویانی که از چتبات استفاده میکردند، احساس میکردند که این کار بسیار آسان است، به طرز شگفتآوری پاسخهای بدی دادند.
او معتقد است که عملکرد ضعیف آنها، هزینه تخلیه شناختی به چتباتها را نشان میدهد. وی اکنون با نسخههای جدید چتباتها که پاسخهای دقیقتری ارائه میدهند، نگران است که افراد ممکن است در واگذاری کار به این چتباتها بهتر شده باشند و همچنین ممکن است باور کنند که اطلاعاتی که دریافت میکنند، حتی دقیقتر است.
تأثیرات چتباتها بر تخلیه شناختی و تفکر انتقادی ممکن است به عوامل فردی نیز بستگی داشته باشد. مطالعهای که امسال در مجله آکادمی مدیریت، یادگیری و آموزش منتشر شد، نتیجه مشابهی را نشان داد.
محققان ۱۵۰ دانشجوی دانشکده بازرگانی را به صورت تصادفی انتخاب کردند. ابتدا همه آنها یک مطالعه موردی را بدون هیچ هوش مصنوعی تکمیل کردند. سپس یک مطالعه موردی دیگر به آنها ارائه شد، اما این بار، نیمی از دانشجویان مجاز به استفاده از ChatGPT بودند. کسانی که در اولین وظیفه عملکرد ضعیفی داشتند، از استفاده از چتبات سود بردند، در حالی که کسانی که عملکرد خوبی داشتند، عملکرد ضعیفتری با چتبات نشان دادند.
در این مورد، لیندباوم معتقد است که چتباتها سرعت تکمیل وظیفه را افزایش میدهند و در عین حال انتقال دانش را کاهش میدهند و این توضیح میدهد که چرا دانشجویان ضعیف با کمک ChatGPT عملکرد بهتری داشتند، در حالی که دانشآموزان بهتر عملکرد بدتری داشتند.
تخلیه شناختی ممکن است بر تفکر انتقادی نیز تأثیر داشته باشد. یک مطالعه در سال ۲۰۲۵ بیش از ۶۰۰ نفر را در مورد استفاده از هوش مصنوعی مورد بررسی قرار داد و همچنین مهارتهای تفکر انتقادی آنها را آزمایش کرد. شرکتکنندگانی که بیشترین استفاده را از هوش مصنوعی داشتند، سطوح بالاتری از تخلیه شناختی را گزارش کردند و کمترین امتیاز را در تفکر انتقادی کسب کردند.
یک آزمایش تصادفی و کنترلشده دیگر با گروهی متشکل از ۱۶۰ دانشجو در حال انجام است تا تأثیر استفاده از هوش مصنوعی مولد بر تلاش شناختی در یک کار نوشتاری را درک کند. این مطالعه شامل ردیابی چشم و تصویربرداری مغز برای جمعآوری دادههای عینی در مورد این است که کدام قسمتهای مغز هنگام فکر کردن به کار فعال میشوند.
استادلر گفت: این مثل فست فود است. در شرایط اضطراری، فست فود بهتر از هیچ چیز است. از سوی دیگر، فقط فست فود خوردن به هیچ وجه سالم نیست.
آیا باید به هوش مصنوعی عادت کنیم؟
بسیاری از متخصصان معتقدند که مردم باید یاد بگیرند چگونه به صورت بهینه و درست از هوش مصنوعی استفاده کنند. آنها معتقدند که این فناوری برای ماندن آمده است.
باربارا لارسن(Barbara Larson)، استاد دانشگاه نورث ایسترن(Northeastern) به دانشجویان خود تفکر انتقادی میآموزد، زیرا به گفته او میتواند به آنها کمک کند تا عاقلانه از هوش مصنوعی استفاده کنند.
یادگیری در مورد محدودیتهای LLMها، کنار گذاشتن پاسخهای آنها و درخواست از آنها برای توضیح و منبع خروجی خود میتواند برخی از پیامدهای منفی را به حداقل برساند.
همه به این هیاهو اعتقاد ندارند. اگرچه هوش مصنوعی مولد در سال ۲۰۲۶ تقریباً فراگیر خواهد بود، شرکتهایی مانند اوپنایآی (OpenAI) و آنتروپیک(Anthropic) سالانه میلیاردها دلار هزینه میکنند و با وجود همه این نگرانیها، بسیاری از دانشگاهها در سراسر جهان در حال امضای قرارداد با شرکتهای هوش مصنوعی هستند تا دسترسی دانشجویان و اساتید را به چتباتها فراهم کنند.
برخی از اعضای هیئت علمی در حال مقابله با مدیران دانشگاه خود هستند، به این امید که آنها را از تمدید قرارداد با شرکتهای هوش مصنوعی بازدارند.
لیندباوم میگوید: به نظر میرسد بسیاری از دانشگاهیان ادعاهای بازاریابی شرکتهای هوش مصنوعی را با حقایق علمی اشتباه میگیرند. این چیزی است که من آن را نسبتاً گیجکننده میدانم.
بدون درک روشن از خطرات، برخی ممکن است به دلیل آسانتر بودن، به استفاده از چتباتها روی آورند. بسیاری از دانشجویان و محققان به شکل نامناسب از این مدلها استفاده میکنند. این موضوع به دلیل فقدان ابزارهای قابل اعتماد تشخیص هوش مصنوعی، پیچیده است.
برای شریل واکسلاک(Cheryl Wakslak)، دانشیار و محقق USC، فرصت مطالعه تأثیرات هوش مصنوعی مولد میتواند به حوزه علوم اجتماعی کمک کند تا پس از عدم موفقیت در مطالعه پیشگیرانه تأثیر رسانههای اجتماعی، به رستگاری برسند. واکسلاک میگوید: ما به عنوان یک جامعه علوم اجتماعی، باید این بار این کار را بهتر انجام دهیم.
واکسلاک توضیح داد که تاکنون، دانشمندان علوم اجتماعی و روانشناسان، اثرات چتباتها را در چند لحظه بسیار خاص از زمان ثبت کردهاند. او و دیگر دانشمندان هنوز در حال جمعآوری دادهها هستند تا بفهمند که با استفاده مداوم از هوش مصنوعی چه اتفاقی میافتد و چگونه بر مغز تأثیر میگذارد.
دلیل دیگر اینکه پاسخ روشنی برای این سوال وجود ندارد که تا حدودی به دلیل سرعت بهروزرسانی و انتشار مدلهای زبانی بزرگ است. استادلر توضیح داد که تا زمانی که تحقیقات به خوبی انجام شود، چتباتهای هوش مصنوعی مورد استفاده در آنها منسوخ شدهاند. از سوی دیگر نیز اگر محققان این مطالعه را به سرعت انجام دهند، دقیق نخواهد بود.
حکم علمی که به آرامی در حال تکامل در مورد هوش مصنوعی مولد است، هنوز رضایتبخش نیست و به تیترهای جذاب نمیرسد، اما در حالی که مطالعات دقیق و بررسیشده زیادی در مورد اثرات بلندمدت این چتباتها بر مغز وجود ندارد، دلایل کافی برای کارشناسان وجود دارد تا نگرانیهای خود را مطرح کنند.