دوشنبه ۲۳ تير ۱۴۰۴ - ساعت :
۲۳ تير ۱۴۰۴ - ۱۰:۰۰

صدایی که می‌شنوید جعلی است گول نخورید

صدایی که می‌شنوید جعلی است گول نخورید
هوش مصنوعی با همه مزایا و توانمندی‌های سودمندش در بخش‌های مختلف، از صنعت و کشاورزی گرفته تا پزشکی، فضا، علم مواد، فیلمسازی و...، اما یک روی دیگر هم دارد و آن هم احتمال جعل در همه عرصه ها و فریب دادن کاربران با روش‌های مختلف است.
کد خبر : ۷۰۴۸۷۱

به گزارش صراط به نقل از ایران یکی از این روش‌ها، تولید فایل‌های صوتی جعلی باورپذیر است؛ یعنی ممکن است در یک صدای آشنا، دروغی بزرگ پنهان شده باشد؛ موضوعی که می‌تواند منجر به کلاهبرداری از کاربران شود. در همین رابطه، عرصه سیاسی فضایی است که هوش مصنوعی این پتانسیل را دارد که با تأثیرگذاری در مقاطع متفاوت و ازجمله انتخابات، خدشه‌دار کردن یک چهره سیاسی و... آینده یک کشور را تغییر دهد.

تغییر مسیر انتخابات با هوش مصنوعی
استفاده از صداهای جعلی سیاستمداران، زنگ خطر را در جهان به صدا درآورده تا جایی که «ورا یورووا»، معاون کمیسیون اتحادیه اروپا، دیپ‌فیک‌های سیاسی تولید شده با هوش مصنوعی را «بمب اتمی» توصیف کرد که می‌تواند مسیر تصمیمات رأی‌دهندگان را تغییر دهد و حتی به افزایش شکاف در جامعه و عمیق‌تر شدن اختلافات دامن بزند.
این موضوع وقتی نگران‌کننده‌تر شد که روزنامه واشنگتن‌پست در یک خبر اختصاصی گزارش داد، فردی ناشناس با کمک نرم‌افزارهای هوش مصنوعی اقدام به جعل هویت «مارکو روبیو»، وزیر خارجه آمریکا کرده و با تقلید صدا و سبک نوشتاری وی، یک‌سری پیام‌های صوتی باورپذیر برای چند مقام ارشد داخلی و خارجی ارسال کرده است، اما این اولین‌بار نیست که چنین اتفاقی می‌افتد. مدتی پیش یک فایل صوتی از رهبر حزب کارگر بریتانیا در پلتفرم ایکس (توئیتر سابق) منتشر شد که در حال ناسزاگویی و تحقیر یکی از کارکنانش بود و در انتخابات سال گذشته اسلواکی هم یک فایل صوتی جعلی، منجر به بروز مشکلاتی در برگزاری انتخابات این کشور شد. هرچند بررسی نهادهای راستی‌آزمایی نشان داد این صداها حاوی نشانه‌هایی از تولید یا دست‌کاری شدن توسط نرم‌افزارهای هوش مصنوعی هستند، ولی با این حال این محتواها همچنان در پلتفرم‌هایی مانند فیس‌بوک و ایکس باقی ماندند و دردسرساز شدند.

جولان صداهای جعلی در شبکه‌های اجتماعی
از آنجا که گاه حتی راستی‌آزمایی‌های انسانی هم در تشخیص جعلی بودن صداها با دشواری مواجهند، بی‌شک پلتفرم‌های شبکه اجتماعی نیز در مدیریت محتوای صوتی تولید شده با هوش مصنوعی مشکلاتی دارند. علاوه بر این، تعداد کمی از شرکت‌های نرم‌افزاری، ابزارهای حفاظتی برای جلوگیری از سوءاستفاده از صدا دارند.متخلفان و سودجویان، از صدای برخی هنرپیشه‌ها هم برای کلاهبرداری بر بستر شبکه‌های اجتماعی مختلف از جمله تیک‌تاک استفاده کردند. یکی از آنها «تام هنکس»، بازیگر سرشناس است که از صدای وی برای تبلیغات دندانپزشکی استفاده شده بود. گاهی هم از راویان هوش مصنوعی برای تهیه یک گزارش خبری جعلی استفاده می‌شود. مؤسسه NewsGuard در ماه سپتامبر، 17 حساب کاربری را در تیک‌تاک شناسایی کرد که با استفاده از نرم‌افزارهای تبدیل متن به گفتار هوش مصنوعی، ویدیوهایی حاوی اطلاعات نادرست تولید و بیش از ۳۳۶ میلیون بازدید و ۱۴.۵ میلیون لایک جمع‌آوری کرده بودند. در یکی از این ویدیوها، ادعا شده است باراک اوباما در مرگ آشپز شخصی‌اش، «تافاری کمپبل»، دست دارد. گزارش خبری دیگری که با صدای هوش مصنوعی تولید شده، مدعی است «جیمی فاکس» بازیگر به‌ دلیل تزریق واکسن کرونا فلج و نابینا شده است. این خبر طرفداران این بازیگر را بسیار نگران کرد ولی در نهایت برچسب جعلی خورد و پس از هشدار به تیک‌تاک، این پلتفرم برخی از این ویدیوها را حذف کرد.

تصویب یک قانون فوری
افزایش میزان صداهای جعلی به کار رفته در ویدیوها، سرانجام سبب شد گروهی از سناتورهای دموکرات و جمهوری‌خواه آمریکا پیش‌نویس لایحه‌ای موسوم به «قانون ممنوعیت جعل» (No Fakes Act) را تصویب کنند. طبق این قانون، تولید یا توزیع نسخه‌ای شبیه‌سازی ‌شده از صدای فرد یا تصویر ویدیویی با استفاده از هوش مصنوعی بدون رضایت شخص، جرم‌انگاری می‌شود.
«هانی فرید»، استاد جرم‌شناسی دیجیتال از دانشگاه کالیفرنیا در این‌باره می‌گوید:«فناوری شبیه‌سازی صدا از سال گذشته به‌ سرعت پیشرفت کرده است و فراگیر شدن ابزارهای ارزان و در دسترس آنلاین باعث شده تقریباً هر کسی بتواند یک خبر صوتی جعلی و پیچیده تولید کند. این استاد دانشگاه با اشاره به اینکه ‌فایل‌های صوتی دروغین، پیامدهای جدی برای افراد، جوامع و دموکراسی‌ دارد، می‌افزاید:«صدای سیاستمداران و افراد سرشناس، ابزار کار آنهاست که هوش مصنوعی عملاً از این ابزار، علیه خودشان استفاده می‌کند. در گذشته، نرم‌افزارهای شبیه‌ساز صدا، خروجی‌های غیرواقعی تولید می‌کردند اما با افزایش قدرت پردازش هوش مصنوعی، این فناوری اکنون می‌تواند میلیون‌ها نمونه صوتی را تحلیل و با شناسایی الگوهای بنیادین گفتار، ظرف چند ثانیه صدای دلخواه را عیناً بازتولید کند. ابزارهای آنلاین مانند سرویس شرکت Eleven Labs به کاربران اجازه می‌دهد با اشتراک ماهانه 5 دلار و تنها با در اختیار داشتن چند ثانیه از صدای فرد مورد نظر، متن دلخواه خود را وارد کرده و یک صدای جعلی مشابه تولید کنند.»