// کد مطلب: ۱۶۵۵۹۵

بیمه رازی

عملکرد هوش مصنوعی و تاثیر آن بر روابط عمومی

عملکرد هوش مصنوعی و تاثیر آن بر روابط عمومی
لینک کوتاه کپی شد

این روزها بخش بزرگی از محتوای شبکه‌های اجتماعی و حتی درگاه‌های رسانه‌ای رسمی را اخباری به خود اختصاص داده اند که به راحتی رد مولفه‌های مربوط به (فیک نیوز) را می‌توان در آنها رصد کرد. اخبار جعلی مرگ چهره‌های مشهور، اتفاقات محیر‌العقول حول افراد شاخص و مقامات، تحولات بزرگ و جنجالی اجتماعی و اقتصادی، مسائل خصوصی مربوط به زندگی سلبریتی‌ها و..... . از نظر تهیه کنندگان محتوای فیک، همیشه عده‌ای در حال جنجال به پا کردن و عده‌ای دیگر در حال غوغا به پا کردنند.

مسأله‌ای که با اهداف ساده‌ای مانند جذب بیننده و مخاطب ولو از طریق دروغ و فریب یا اهداف پیچیده و خطرناکی مانند بازی‌های سیاسی برای کسب قدرت یا رقابت‌های اقتصادی در سطح کلان به‌کار می‌روند. فیک نیوزها که در شبکه‌های اجتماعی نیز این روزها فضای مانور بسیار زیادی پیدا کرده‌اند تا جایی‌که به گمان برخی از متخصصان حوزه ارتباطات این روزها درصد غالب خبرها را تشکیل می‌دهند، بسیار خطرناک و مخرب می‌توانند باشند.

برخی از کارشناسان ارتباطات حتی رقابت بر سر ابزارهای تولید فیک نیوز را نوعی رقابت تسلیحاتی عصر حاضر می‌دانند. این مسأله اما الان و با رشد، ارتقا و پیشرفت روز افزون تکنولوژی‌های مربوط به هوش مصنوعی بسیار ابعاد تازه و پیچیده‌تری پیدا کرده است. با رشد ابزار‌های هوش مصنوعی کم کم مفهوم تازه‌ای به اسم (دیپ فیک) یا واقع نمایی عمیق بر سر زبان‌ها افتاده است. تکنولوژی ترسناکی که به‌راحتی و با ابزارهایی بهینه‌سازی شده می‌تواند صدا، تصویر یا عکس هر شخصی را در حال گفتن مطلب یا انجام عملی بازسازی کند، رویدادهای خاصی را طراحی و واقع نمایی کند و در قالب یک تصویر خبری ارائه داده و یا متونی در قالب خبر، تحلیل، تاریخ و اطلاعات عمومی به‌صورت کاملاً ساختگی و غیر واقعی ارائه دهد.

از سویی اما هوش مصنوعی به‌صورت بالقوه توان مقابله با فیک نیوزها را نیز به‌خوبی دارد. می‌توان با استفاده از ابزار‌های هوش مصنوعی بسیار بهتر و بیش از پیش اخبار جعلی را شناسایی و صحت سنجی کرد و کمتر در دام اینگونه اخبار افتاد. در نتیجه دور از انتظار نیست که بحث‌های زیادی در محافل علمی و رسانه‌ای حول این موضوع دربگیرد که در این نوشتار نیز به گوشه‌ای از همین موضوعات پرداخته شده است.

 

هوش مصنوعی و سودای دیگری بودن

می‌خواهید خودتان را شبیه رئیس جمهور کنید؟ در گذشته، این امر مستلزم تقلید فیزیکی از صدای او، سبک و استایل فیزیکی و حرکات او بود. و حتی اگر در این کار خیلی خوب بودید، تقریباً به طور قطع خطری برای جامعه یا بنیان‌های جمهوریت ایجاد نمی‌کرد. اما تکنولوژی آن را تغییر داده است. اکنون می‌توانید به راحتی و با دقت هر کسی را از طریق هوش مصنوعی وادار کنید چیزی که می‌خواهید بگوید. کافیست از سرویس یک برنامه آنلاین برای ضبط یک جمله استفاده کنید و آنچه را که با صدای یک فرد مشهور گفتید گوش دهید.برنامه‌هایی مانند این اغلب واقع نمایی عمیق یا (دیپ فیک ) نامیده می‌شوند – سیستم‌های هوش مصنوعی که صدا، تصاویر و ویدیوها را به گونه‌ای تطبیق می‌دهند که افراد را وادار به گفتن و انجام کارهایی کنند که هرگز انجام نداده‌اند.

این فناوری‌ها می‌توانند عصر جدیدی از اخبار جعلی و اطلاعات غلط آنلاین را آغاز کنند. در سال ۲۰۱۷، هانی فرید، دانشمند کامپیوتر در کالج دارتموث، ایالات متحده، که ویدیوهای جعلی را شناسایی می‌ کند، گفت که گسترش سریع تکنیک‌های جدید دستکاری و جعل محتوای رسانه‌ای منجر به «مسابقه تسلیحاتی» شده است. فقط تصور کنید زمانی که دیگر نتوانیم به ویدیو و صدا اعتماد کنیم، در آن‌صورت در هنگام برگزاری یک انتخابات عمومی با چه چالش‌هایی روبه‌رو می‌شویم. اما برخی از محققان اکنون در حال مبارزه با ابعاد منفی این مسأله و کار بر روی ابعاد مثبت آن هستند تا نشان دهند که هوش مصنوعی می‌تواند در این زمینه هم کاربرد‌های مثبت و مفیدی داشته باشد.

فرانچسکو نوچی، مدیر تحقیقات برنامه‌های کاربردی در گروه مهندسی مستقر در ایتالیا، می‌گوید: «هوش مصنوعی مشکلات اخلاقی زیادی دارد. اما گاهی اوقات می‌تواند راه‌حل هم باشد. می‌توانید از هوش مصنوعی به روش‌های غیراخلاقی برای ساختن و انتشار اخبار جعلی استفاده کنید، اما همچنین می‌توانید از آن برای انجام کارهای خوب، مثلا برای مبارزه با اطلاعات نادرست استفاده کنید.»رصدکننده‌های واقعیت نوچی محقق اصلی پروژه Fandango است، که هدف آن انجام همین کار است. او می‌گوید این تیم در حال ساخت ابزارهای نرم‌افزاری برای کمک به روزنامه‌نگاران و بررسی‌کنندگان واقعیت یا اصطلاحاً (فکت چکرها) هستند که اخبار جعلی را شناسایی و با آن مبارزه می‌کنند. آنها امیدوارند بتوانند از سه طریق به روزنامه‌نگاران کمک کنند.

 

اولین مؤلفه همان چیزی است که نوچی آن را تشخیص مستقل از محتوا با استفاده از ابزارهایی که فرم محتوا را هدف قرار می‌دهند، می‌نامد.

نوچی توضیح می‌دهد که امروزه، تصاویر و ویدیوها را می‌توان به راحتی دستکاری کرد، چه از طریق فتوشاپ ساده و چه از طریق تکنیک‌های پیچیده‌تر مانند دیپ فیک. سیستم‌های هوش مصنوعی می‌توانند این تغییرات را مهندسی معکوس کنند و از الگوریتم‌هایی برای کمک به خبرنگاران برای شناسایی محتوای دستکاری شده استفاده کنند.

 

این ابزارها تصاویر را بررسی می‌کنند و دیگر بررسی نمی کنند که آیا خود محتوا ادعاهای نادرستی دارد یا خیر. در بخش دوم وظیفه صحت سنجی محتوا با ابزارهای دیگری از هوش مصنوعی انجام می‌گیرد. این ابزارها مطالب و محتواهایی را رصد و پیدا می‌کنند که نادرستی آن‌ها توسط بررسی‌کنندگان حقایق انسانی اثبات شده‌اند. سپس به دنبال رد آنها در محتوای مورد بررسی می‌گردند و در‌صورت پیدا کردن ادعایی مشابه، آلارم جعلی بودن می‌دهند. هر دوی این مؤلفه‌ها به شدت بر الگوریتم‌های هوش مصنوعی مختلف مانند پردازش زبان طبیعی متکی هستند اما مؤلفه سوم به روزنامه نگاران اجازه می‌ دهد تا به اخبار جعلی پاسخ دهند.

برای مثال، یک داستان جعلی می‌تواند این ادعا را مطرح کند که درصد بالایی از جنایات در یک کشور اروپایی توسط مهاجران خارجی انجام می‌شود. از نظر تئوری ممکن است به راحتی ادعای نقض به‌دلیل حجم زیادی از داده‌های باز موجود باشد، با این حال روزنامه‌نگاران زمان ارزشمندی را برای یافتن آن داده‌ها تلف می‌کنند. بنابراین، ابزارهای هوش مصنوعی انواع منابع داده باز اروپایی را به هم پیوند می‌دهد و آن‌ها را دسته‌بندی و تصویرسازی می‌کند. روزنامه‌نگاران می‌توانند برای مثال از داده‌های ملی برای رسیدگی به ادعاهای مربوط به جنایات استفاده کنند و در اندک زمانی به پاسخ برسند. به این ترتیب روزنامه نگاران می‌توانند به سرعت به اخبار یا ادعاهای جعلی پاسخ دهند و وقت را نیز تلف نکنند.

.

برخورد غیر معمول با یک معضل معمول

مایکل برونشتاین، استاد دانشگاه لوگانو سوئیس و کالج امپریال لندن می‌گوید: شناسایی اخبار جعلی نه تنها یک نیاز اساسی برای تشخیص اخبار جعلی و ادعاهای نادرست است. بلکه همچنین برای تجزیه و تحلیل الگوهای اشتراک‌گذاری محتوا در رسانه‌های اجتماعی بسیار مهم است. او پروژه‌ای به نام GoodNews را رهبری می‌کند که از هوش مصنوعی برای اتخاذ رویکردی غیرمعمول برای تشخیص اخبار جعلی استفاده می‌کند.

پروفسور برونشتاین می‌گوید: «بیشتر رویکردهای تشخیص محتوای جعلی موجود به محتوا نگاه می‌کنند.» آنها ویژگی‌های معنایی را که مشخصه اخبار جعلی هستند، تحلیل می‌کنند. که تا حدودی کار می‌کند، اما با انواع مشکلات روبه‌رو می‌شود.

تبلیغات متنی

ارسال دیدگاه