ChatGPT-ին մեղադրել են համացանցում նորություններ փնտրելիս ստելու մեջ
Կոլումբիայի համալսարանին կից թվային լրագրության Tow կենտրոնի մասնագետները որոնողական համակարգի թեստավորում են անցկացրել OpenAI ընկերության արհեստական բանականության վրա հիմնված ChatGPT հանրահայտ չաթ-բոտում: Պարզվել է, որ ալգորիթմը այնքան էլ լավ չի կատարում նորությունների աղբյուրների որոնումը և հաճախ տալիս է ոչ ճշգրիտ պատասխաններ:
OpenAI-ն այս տարվա հոկտեմբերին բացեց ChatGPT-ի որոնման գործառույթն օգտատերերի համար՝ ասելով, որ այն կարող է «արագ և ճիշտ պատասխաններ տալ համապատասխան վեբ աղբյուրների հղումներով»: Այնուամենայնիվ, գործիքը փորձարկելիս պարզվեց, որ այն դժվարությամբ է ճանաչում հոդվածներից մեջբերումները, նույնիսկ այն ժամանակ, երբ դրանք հրապարակվել են հրատարակիչների կողմից, ովքեր թույլ են տվել OpenAI-ին օգտագործել իրենց բովանդակությունը մեծ լեզվական մոդելներ (LLM) պատրաստելիս:
Հետազոտության հեղինակները ChatGPT-ին խնդրել են մեջբերել «քսան աղբյուրից երկու հարյուր մեջբերումների» աղբյուրները։ Այս մեջբերումներից 40-ը վերցվել են հրատարակիչներից, ովքեր արգելել են OpenAI որոնողական ռոբոտին մուտք գործել իրենց կայքեր: Սակայն նույնիսկ այս դեպքերում չաթբոտը վստահորեն արձագանքեց՝ տալով կեղծ տեղեկություններ, իսկ որոշ դեպքերում խոստովանելով, որ վստահ չէ տրամադրված տեղեկատվության ճշգրտության մեջ։
«Ընդհանուր առմամբ, ChatGPT-ն 153 դեպքում վերադարձրել է մասամբ կամ ամբողջությամբ սխալ պատասխաններ, մինչդեռ այն խոստովանել է միայն 7 անգամ, որ չի տվել ճշգրիտ պատասխան: Միայն այս 7 արդյունքներում չաթբոտը օգտագործել է որակավորող բառեր և արտահայտություններ, ինչպիսիք են՝ «կարծես», «հնարավոր է» կամ «ես չկարողացա գտնել բնօրինակ հոդվածը» արտահայտությունները, ասվում է հետազոտողների հայտարարության մեջ:
Մի շարք թեստեր բացահայտեցին դեպքեր, երբ օրինակ չաթբոտին խնդրեցին մեջբերման աղբյուր տրամադրել վտանգված կետերի մասին New York Times-ի հոդվածից, նա հղում տվեց մի կայքի, որը պարզապես պատճենել և հրապարակել էր բնօրինակ հոդվածը:
Տեխնոլոգիական հրապարակումներն իրականացվում են Իդրամի աջակցությամբ։