آیا هوش مصنوعی میتواند ما را از تئوریهای توطئه خارج کند؟
تحقیقات جدید منتشر شده در مجله Science نشان میدهد که برای برخی از افرادی که به تئوریهای توطئه اعتقاد دارند، گفتگو با یک چتبات هوش مصنوعی میتواند به آنها کمک کند تا از این باورها خارج شوند. این تحقیق، که توسط توماس کاستلو و همکارانش در مؤسسه فناوری ماساچوست انجام شده، نویدبخش راهحلی برای یک مشکل اجتماعی چالشبرانگیز است: باور به تئوریهای توطئه.
برخی از تئوریهای توطئه نسبتاً بیضرر هستند، اما دیگر نظریهها میتوانند اعتماد به نهادهای عمومی و علم را کاهش دهند. این موضوع زمانی مشکلساز میشود که تئوریهای توطئه مردم را از واکسیناسیون یا اقدام علیه تغییرات اقلیمی بازدارند.
تئوریهای توطئه بهطور قابل توجهی چسبنده هستند و تغییر دادن باورهای افراد دشوار است. این امر به دلایل مختلفی بستگی دارد، از جمله ارتباطات اجتماعی و تحقیقات گستردهای که طرفداران این نظریهها انجام میدهند.
با ظهور هوش مصنوعی، نگرانیها درباره باور به اطلاعات نادرست افزایش یافته است. با این حال، تحقیقات نشان میدهد که گفتگو با یک چتبات میتواند به برخی افراد کمک کند تا از باورهای توطئهای خود دست بکشند.
این تحقیق نشان میدهد که چتباتها میتوانند با ارائه استدلالهای مستند، افراد را متقاعد کنند که باورهای نادرست خود را تغییر دهند. در این مطالعه، حدود 20 درصد از شرکتکنندگان پس از گفتگو با چتبات، کاهش قابل توجهی در اعتقاد به تئوریهای توطئه نشان دادند.
چتباتها میتوانند به عنوان ابزاری برای مقابله با باورهای نادرست عمل کنند، اما این ابزارها نمیتوانند بهطور کامل مشکل را حل کنند. این مطالعه نشان میدهد که چتباتها بیشتر برای افرادی که دلایل شخصی قوی برای باور به تئوریهای توطئه ندارند، مؤثر هستند.
این تحقیق نشان میدهد که چتباتها میتوانند بسیار متقاعدکننده باشند، اما اگر اطلاعات آنها نادرست یا دارای تعصب باشد، ممکن است به گسترش اطلاعات نادرست کمک کنند. در نهایت، چتباتها تنها ابزاری هستند و مهارت و نیت سازنده و کاربر در استفاده از آنها اهمیت دارد.
در نهایت، تئوریهای توطئه با انسانها آغاز میشوند و این انسانها هستند که میتوانند آنها را پایان دهند.
منبع مقاله ای از: theconversation.com
لینک ارجاع به این صفحه: https://talkbot.ir/blog/article?id=9990023