0ba25b01 8d9c 4c06 beb2

هوش مصنوعی نمی تواند اطلاعات نادرست را از بین ببرد

واشنگتن – یک گروه تحقیقاتی رسانه ای دریافته است که وقتی صحبت از مبارزه با اطلاعات نادرست پیش از انتخابات ریاست جمهوری ایالات متحده می شود، هوش مصنوعی و چت بات ها شکست می خورند.

آخرین ممیزی توسط گروه تحقیقاتی NewsGuard نشان داد که ابزارهای مولد هوش مصنوعی در پاسخگویی موثر به روایت‌های نادرست تلاش می‌کنند.

NewsGuard در آخرین ممیزی خود از 10 چت ربات پیشرو، که در سپتامبر گردآوری شد، دریافت که هوش مصنوعی در 18 درصد مواقع اطلاعات نادرست را تکرار می‌کند و 38.33 درصد مواقع پاسخی نمی‌دهد که منجر به «نرخ شکست» تقریباً 40 درصدی می‌شود. .

مک کنزی صادقی، نویسنده این ممیزی، گفت: «این چت ربات ها به وضوح هنگام رسیدگی به سؤالات فوری مرتبط با اخبار و اطلاعات با مشکل مواجه هستند. منابع زیادی وجود دارد، و چت ربات‌ها ممکن است نتوانند تشخیص دهند که کدام یک قابل اعتماد هستند در مقابل کدام یک که غیر قابل اعتماد است.

صادقی به صدای آمریکا گفت که NewsGuard یک پایگاه داده از اخبار نادرست دارد که شامل جنگ های جهانی و سیاست ایالات متحده می شود.

هر ماه، محققان روایت‌های نادرست را به سه شکل مختلف به چت‌بات‌های پیشرو وارد می‌کنند: درخواست‌های کاربر بی‌گناه، سؤالات اصلی و درخواست‌های «بازیگر بد». از آنجا، محققان بررسی می‌کنند که آیا هوش مصنوعی تکرار می‌شود، پاسخ نمی‌دهد یا ادعاها را رد می‌کند.

هوش مصنوعی روایت‌های نادرست را بیشتر در پاسخ به درخواست‌های بازیگران بد تکرار می‌کند، که بازتاب تاکتیک‌های استفاده شده توسط کمپین‌های نفوذ خارجی برای انتشار اطلاعات نادرست است. حدود 70 درصد از مواردی که در آن دروغ‌های تکراری هوش مصنوعی در پاسخ به درخواست‌های بد بازیگر بود، در مقابل درخواست‌های اصلی یا درخواست‌های کاربر بی‌گناه.

بیشتر بخوانید  آمریکا مقررات جدید صادرات تراشه‌‌‌ها و مدل‌های هوش مصنوعی را اعلام کرد

به گفته دفتر مدیر اطلاعات ملی، کمپین های نفوذ خارجی می توانند از چنین نقص هایی استفاده کنند. بر اساس گزارش اطلاعاتی که ماه گذشته منتشر شد، روسیه، ایران و چین از هوش مصنوعی مولد برای «تقویت تلاش‌های مربوط به نفوذ در انتخابات آمریکا» استفاده کرده‌اند.

صادقی به عنوان نمونه ای از اینکه چت ربات های هوش مصنوعی به راحتی می توانند گمراه شوند، به مطالعه NewsGuard در ماه ژوئن اشاره کرد که نشان می دهد هوش مصنوعی اگر اطلاعات نادرست روسی را به عنوان منبع خبری محلی آمریکایی «معروف کند» تکرار می کند.

از افسانه‌های مربوط به مهاجران گرفته تا دروغ‌ها در مورد FEMA، انتشار اطلاعات نادرست و اطلاعات نادرست یک موضوع ثابت در طول چرخه انتخابات 2024 بوده است.

سجین پیک، محقق هوش مصنوعی در دانشگاه جورج تاون به صدای آمریکا گفت: «اطلاعات نادرست جدید نیست، اما هوش مصنوعی مولد قطعاً این الگوها و رفتارها را تقویت می کند.

Paik گفت، از آنجایی که فناوری پشت هوش مصنوعی دائما در حال تغییر و تحول است، اغلب قادر به تشخیص اطلاعات اشتباه نیست. این نه تنها منجر به مشکلات واقعی بودن خروجی هوش مصنوعی، بلکه سازگاری نیز می شود.

NewsGuard همچنین دریافت که دو سوم سایت‌های خبری «کیفیت بالا» مدل‌های هوش مصنوعی مولد را از استفاده از پوشش رسانه‌ای خود مسدود می‌کنند. به گفته دیده بان، در نتیجه، هوش مصنوعی اغلب باید از منابع خبری با کیفیت پایین تر و مستعد اطلاعات نادرست بیاموزد.

کارشناسان می گویند این می تواند خطرناک باشد. مت جردن محقق رسانه ای به صدای آمریکا گفت بسیاری از رسانه های بدون پرداخت که هوش مصنوعی روی آنها آموزش می دهد، “تبلیغات” یا “ارتباطات استراتژیک عمدی” هستند.

بیشتر بخوانید  درها به روی کسب‌وکارها گشوده است: قطر امیدوار است به مرکز راه‌اندازی استارت‌آپ‌های فناوری تبدیل شود

جردن، استاد رسانه ای در ایالت پن به صدای آمریکا گفت: «هوش مصنوعی چیزی نمی داند: دانش را غربال نمی کند و نمی تواند ادعاها را ارزیابی کند. “این فقط بر اساس اعداد زیاد تکرار می شود.”

او افزود که هوش مصنوعی تمایل به تکرار اخبار «جعلی» دارد، زیرا از نظر آماری، تمایل دارد بر روی اطلاعات کج و مغرضانه آموزش داده شود. او این را “مدل زباله در، زباله بیرون” نامید.

صادقی گفت: هدف NewsGuard تعیین استاندارد برای اندازه‌گیری دقت و قابلیت اطمینان در صنعت هوش مصنوعی از طریق نظرسنجی‌های ماهانه است.

این بخش به سرعت در حال رشد است، حتی با توجه به مسائل مربوط به اطلاعات نادرست. صنعت مولد هوش مصنوعی در چند سال گذشته رشد چشمگیری را تجربه کرده است. به گزارش رویترز، ChatGPT OpenAI در حال حاضر 200 میلیون کاربر هفتگی را گزارش می دهد که بیش از دو برابر سال گذشته است.

به گفته آنجانا سوسارلا، استاد هوش مصنوعی مسئول در دانشگاه ایالتی میشیگان، رشد محبوبیت این ابزارها منجر به مشکل دیگری در خروجی آنها می شود. از آنجایی که حجم بالایی از اطلاعات – از کاربران و منابع خارجی – وارد می شود، تشخیص و جلوگیری از انتشار اطلاعات نادرست دشوار است.

سوسارلا گفت که بسیاری از کاربران هنوز مایلند باور کنند که خروجی های این چت بات ها درست است.

او به صدای آمریکا گفت: «گاهی اوقات، مردم بیشتر از اینکه به انسان ها اعتماد کنند، می توانند به هوش مصنوعی اعتماد کنند.

او افزود که راه حل این امر ممکن است مقررات دو حزبی باشد. او امیدوار است که دولت پلتفرم های رسانه های اجتماعی را تشویق کند تا اطلاعات نادرست مخرب را تنظیم کنند.

بیشتر بخوانید  هشدار بنیانگذار بایننس درباره تهدیدات دیپ‌فیک هوش مصنوعی در حوزه ارزهای دیجیتال

از سوی دیگر جردن معتقد است راه حل با مخاطبان رسانه است.

او به صدای آمریکا گفت: «پادزهر اطلاعات نادرست، اعتماد به خبرنگاران و خبرگزاری ها به جای هوش مصنوعی است. گاهی اوقات مردم فکر می کنند که اعتماد به یک ماشین راحت تر از اعتماد به یک شخص است. اما در این مورد، فقط ماشینی است که آنچه افراد غیرقابل اعتماد گفته اند را بیرون می زند.»

ممکن هست که دوست داشته باشید

+ There are no comments

Add yours