Գիտնականների կարծիքով՝ արհեստական բանականությունը կարող է մանիպուլացնել մարդկանց կարծիքը
ԱՄՆ Քոռնելի համալսարանի գիտնականները հետազոտություն են իրականացրել, որն ընդգծել է արհեստական բանականության վտանգավորությունը։
Փորձի համաձայն՝ արհեստական բանականությունը կարող է ազդել զրուցակցի կարծիքի վրա։
ChatGPT-ը, Bard-ը կամ Claude-ը կարող են փոխել օգտատերերի մտածելակերպն առանց նրանց իմացության։ Փորձի շրջանակում ամերիկացի հետազոտողները խնդրել են մասնակիցներին գրել հոդված հանրության վրա սոցիալական ցանցերի դրական կամ բացասական ազդեցության մասին։ Հոդվածը գրելու համար նրանց պետք է օգներ խոսող ռոբոտը։ Հետազոտողները մասնակիցներին բաժանել են մի քանի խմբերի։
Ոմանք ստացել են չաթ-բոթի հասանելիություն, որը կառավարվել է լեզվաբանական մոդելով՝ հիմնված սոցիալական ցանցերի առավելությունների վրա։ Մյուս խմբին օգնել է լեզվական մոդելը, որը հենվել է պլատֆորմի վնասի եւ վտանգի վրա։ Հետազոտողները հայտնաբերել են, որ ԱԲ-ն զգալի ազդեցություն է գործել գրված տեքստերի բովանդակության վրա։ Հավանաբար, փորձի մասնակիցներն իրենց թույլ են տվել տրվել մտավոր օգնականների ազդեցությանը։ Ավելին, պարզվել է, որ մարդկանց կարծիքները փոխվել են փորձի ընթացքում։
Փորձից հետո մասնակիցները հարցման են ենթարկվել սոցցանցերում։ «Լեզվական մոդելի օգտագործումն ազդել է այն կարծիքների վրա, որոնք արտահայտվել են մասնակիցների նամակում, եւ փոխել նրանց կարծիքը»,- բացատրում են հետազոտողները՝ ասելով, որ մոդելներում դրսեւորվող կանխակալությանը «պետք է հետեւել եւ դրանք մշակել ավելի մանրակրկիտ»։ Wall Street Journal-ի հարցազրույցում Քոռնելի համալսարանի ինֆորմատիկայի պրոֆեսոր Մոր Նաամանը այս երեւույթն անվանում է «ծածուկ համոզմունք»։
Երբ այն տեղի է ունենում, զրուցակիցը, որը շփվել է ԱԲ-ի հետ, անգամ չի կասկածում, որ չաթ-բոթն իրեն պարտադրում է իր մոտեցումները։ Չաթ-բոթերի ազդեցության դեմ պայքարի համար հետազոտողները խորհուրդ են տալիս օգտատերերին ծանոթանալ այդ երեւույթի աշխատանքի սկզբունքներին։ Այդպիսով, նրանք կկարողանան հետքայլ կատարել ԱԲ-ի հետ խոսակցություններից։ Բացի այդ, գիտնականները կարծում են, որ մարդիկ կարող էին ընտրել այն չաթ-բոթը, որի հետ կցանկանային աշխատել՝ հենվելով ալգորիթմերի կարծիքների վրա։