ChatGPT بهتر از انسان دروغ میگوید
تاریخ انتشار: ۹ تیر ۱۴۰۲ | کد خبر: ۳۸۱۰۳۳۶۵
به گزارش خبرنگار علم و فناوری ایسکانیوز؛ گروهی متشکل از ۶۹۷ نفر حدود ۲۰۰ توییت نوشته شده توسط کاربران و مدل هوش مصنوعی GPT-3، آخرین نسخه ChatGPT را خواندند تا حدس بزنند که کدام توییت درست و کدام نادرست است. آنها سپس باید حدس میزدند که این توییتها توسط یک شخص نوشته شده یا یک ماشین.
جالب است بدانید که در هر دو آزمایش GPT-3 برنده شد، چون هم در توییتها بهتر از انسانها دروغ میگفت و هم در دروغهایش وانمود میکرد که یک انسان در حال نوشتن است.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
جیووانی اسپیتال، محقق دانشگاه زوریخ و یکی از نویسندگان این مقاله علمی به همراه همکارش فدریکو ژرمنی و نیکولا بیلر آندورنو، مدیر مؤسسه اخلاق زیستپزشکی در همان دانشگاه، میگوید: نتیجه بسیار شگفتانگیز بود. فرضیه ما این بود که اگر یک توییت را بخوانید، میتوانید تشخیص دهید که آن را یک انسان نوشته است، اما اگر تعداد زیادی توییت بخوانید، متوجه ویژگیهای زبانی میشوید که استنباط میکنند آنها را هوش مصنوعی نوشته است. اما نتیجه اینطور نبود: کسانی که این توییتها را میخواندند، قادر به تشخیص الگو در متون ماشینی نبودند و بدتر از همه، ظهور تدریجی مدلهای جدیدتر و سایر رویکردها ممکن است توانایی هوش مصنوعی را برای جانشینی انسانها بالا ببرد.
به گفته محققان، سطح نوشتن این هوش مصنوعی عملا عالی است و دلیل دیگری که انسانها قادر به تشخیص اطلاعات نوشته شده توسط هوش مصنوعی نیستند -حتی زمانی که نمونههای بیشتری را میخوانند- این است که توییتهای واقعی به زمان بیشتری برای ارزیابی نیاز دارند تا توییتهای نادرست. یعنی هوش مصنوعی اطلاعات غلط را واضحتر، سازماندهی شدهتر و آسانتر برای پیگیری مینویسد.
مرگ اینترنتمحققان میگویند که نتیجه منطقی این مطالعه، افزایش استفاده از این ابزار برای نوشتن انواع محتوا از جمله کمپینهای اطلاعات نادرست خواهد بود و این یعنی مرگ چندم اینترنت رخ خواهد داد: هوش مصنوعی وب قدیمی را خواهد کشت و وب جدیدی متولد میشود.
رسانه The Verge هفته گذشته در عنوانی این موضوع را اعلام کرد و با مطرح کردن دلایلی، شکست بشریت در اینترنت را بیان کرد و از آن به عنوان «نظریه استعفا» یاد کرد. به این معنا که قرار گرفتن در معرض انتقاد از متن مصنوعی توانایی افراد را برای تشخیص هوش مصنوعی از هوش انسانی کاهش میدهد. یعنی هر چه متن مصنوعی بیشتری بخوانیم، تشخیص آن از متن نوشته شده توسط افراد دشوارتر میشود.
به گفته اسپیتال، این نظریه مخالف نظریه تلقیح است. براساس نظریه تلقیح، قرار گرفتن انتقادی در معرض اطلاعات نادرست، توانایی افراد را در تشخیص اطلاعات نادرست افزایش میدهد.
اگر تئوری استعفا درست باشد، کاربران اینترنت به زودی نمیتوانند بین آنچه یک انسان نوشته و آنچه توسط یک ماشین نوشته، تمایز قائل شوند.
تنها امید برای فرار از کمپینهای اطلاعات نادرست خودکار این است که GPT-3 گاهی از دستورات برای ایجاد دروغ سرپیچی کند که آن هم بستگی به نحوه آموزش هر مدل دارد. از سوی دیگر، موضوعات ۲۲۰ توییتی که در این مطالعه استفاده شد نسبتاً بحث برانگیز بود: تغییرات آب و هوا، واکسنها، نظریه تکامل، کووید ۱۹. محققان دریافتند که GPT-3 در برخی موارد به خوبی پاسخ نمیدهد؛ بهویژه برای موضوعاتی که شواهد بیشتری دارند: واکسن و اوتیسم، هومیوپاتی و سرطان، زمین مسطح.
وقتی نوبت به تشخیص دروغ میرسید، تفاوت کوچکی بین توییتهای نوشته شده توسط GPT-3 و توییتهایی که توسط انسان نوشته شده بود وجود داشت. اما محققان میگویند که این شکاف به دو دلیل قابل توجه است. اول، حتی چند پیام منفرد میتواند روی نمونههای بزرگ تأثیر بگذارد. دوم، بهبود نسخههای جدید این مدلهای هوش مصنوعی میتواند تفاوتها را تشدید کند.
این مطالعه محدودیتهای دیگری نیز دارد که ممکن است در هنگام خواندن توییتهای جعلی، درک را تا حدودی تغییر دهد. اکثر شرکتکنندگان بالای ۴۲ سال سن داشتند، مطالعه فقط به زبان انگلیسی انجام شد و اطلاعات متنی در مورد توییتها مانند نمایه و توییتهای قبلی در نظر گرفته نشد.
اسپیتال میگوید: ما شرکتکنندگان را در فیسبوک استخدام کردیم، زیرا نمونهای از کاربران واقعی شبکههای اجتماعی را میخواستیم. اما دفعه بعد از شرکتکنندگان شبکههایی چون تیکتاک استفاده خواهیم کرد و مطمئنیم که نتایج جالب خواهد بود.
او میافزاید: اما فراتر از این محدودیتها، کمپینهای اطلاعات نادرست وجود دارند که قبلاً بسیار گران بودند، اما اکنون ناگهان مقرون به صرفه شدهاند. تصور کنید که شما یک رئیسجمهور قدرتمند هستید که میخواهید سلامت عمومی یک ایالت دیگر را فلج کنید. یا میخواهید قبل از انتخابات اختلافافکنی کنید. به جای استخدام یک مزرعه ترول انسانی، میتوانید از هوش مصنوعی مولد استفاده کنید. در این صورت، قدرت شلیک شما حداقل در هزار ضرب میشود. و این یک خطر فوری است، نه چیزی خارج از آینده ویرانشهری.
راهکار چیست؟محققان برای جلوگیری از این اتفاق توصیه میکنند که پایگاههای اطلاعاتی برای آموزش این مدلها باید با اصول دقت و شفافیت تنظیم شود، اطلاعات آنها باید تائید شود و منشاء آنها باید برای بررسی مستقل باز باشد.
نسترن صائبی صفت کد خبر: 1187587 برچسبها هوش مصنوعیمنبع: ایسکانیوز
کلیدواژه: هوش مصنوعی اطلاعات نادرست نوشته شده توسط هوش مصنوعی توییت ها
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.iscanews.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ایسکانیوز» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۸۱۰۳۳۶۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی: