به گزارش صراط به نقل از همشهری آنلاین، اگرچه این فناوری مزایای باورنکردنی دارد، اما خطرات جدی نیز به همراه دارد، بهخصوص از جانب برخی از ابزارهای هوش مصنوعی که پتانسیل سوءاستفاده یا عواقب ناخواسته را دارند. ممکن است به سبب تبلیغات اعتماد ما به مدلهای مطرحتر بیشتر باشد اما برخی از آنها بیشترین میزان پاسخ غلط را دارند. جای تعجب است که بسیاری از این فناوریهای خطرناک همچنان در معرض توجه بحثهای اصلی قرار دارند و افراد، سازمانها و سیاستگذاران برای مقابله با آنها آماده نیستند. در این مطلب برخی از پراشتباهترین مدلهای هوش مصنوعی را بررسی خواهیم کرد.
شفافیت برای گمراهنشدن
پیشرفتهای حاصل از مدلهای زبان بزرگ در سال ۲۰۲۳، علاقه گستردهای را به پتانسیل متحولکننده هوش مصنوعی نسل جدید تقریبا در هر صنعتی برانگیخت. ابزار ChatGPT از شرکت OpenAI در مرکز این افزایش علاقه قرار داشت، اما این فناوری هنوز راه درازی در پیش دارد تا بتواند بهطور قابل اعتمادی بر اکثر فرایندها غلبه کند. مثال برای چت جیپیتی که بیشترین استقبال را از طرف مردم زیاد و حتی بازگویی آن تکراری است. اما روشنگری و شفافسازی در این زمینه میتواند هم به ارتقای سطح الگوریتم این مدلها و هم توجه بیشتر مردم در مسیر اعتماد بیچون و چرا به این فناوری کمک کند.
چه چیزی یک ابزار هوش مصنوعی را خطرناک میکند؟
احتمال سوءاستفاده: میتوان از آن برای کلاهبرداری، نظارت یا دستکاری استفاده کرد.
عدمشفافیت: ممیزی یا کنترل این سیستم جعبه سیاه دشوار است.
تشدید تعصبات: کلیشههای مضر یا تبعیض را تقویت میکند.
تجاوز به حریم خصوصی: امکان دسترسی غیرمجاز یا سوءاستفاده از دادههای شخصی را فراهم میکند.
خودمختاری در اقدامات مضر: میتواند بدون نظارت انسانی عمل کند و باعث آسیب شود.
طبق گزارشی که اخیرا نیویورکتایمز منتشر کرده در جدول «نرخ هالوسینیشن» یا همان توهم، مدلهایی مانند گراک، دیپ سیک، جیمنای و برخی مدلهای کمتر شناختهشده در فهرست بیشترین نرخ خطا و توهم هوش مصنوعی قرار دارند. شاید دیدن نام بعضی مدلها و میزان خطای آن برای ما جای تعجب داشته باشد. اما این آمار از دل تحقیقات جدید دانشگاه کلمبیا بیرون آمده است.