Արհեստական բանականությունը չի կարողանում ճանաչել ապատեղեկատվությունը․ ուսումնասիրություն

Արխիվային լուսանկար։

Արհեստական բանականությունը և չաթ-բոտերը ի զորու չեն պայքարել ԱՄՆ նախագահական ընտրություններին ընդառաջ տարածվող ապատեղեկատվության դեմ։

Այս եզրակացությանն է հանգել Նյու Յորքում գործող NewsGuard հետազոտական կենտրոնը՝ արհեստական բանականության գործիքակազմի աշխատանքի հերթական վերլուծությունից հետո։

10 առաջատար չաթ-բոտերի՝ այս սեպտեմբերին իրականացրած ուսումնասիրության հիման վրա NewsGuard-ը եկել է այն եզրակացության, որ կեղծ պատմություններ պարունակող բովանդակության վերաբերյալ հարցում ստանալիս՝ արհեստական բանականությունը կրկնել է ապատեղեկատվությունը 18% դեպքերում, իսկ 38%-ի պարագայում հրաժարվել է պատասխանել կամ տվել է հարցմանն անհամապատասխան արձագանք:

«Այս չաթ-բոտերն ակնհայտորեն դժվարանում են գործել, երբ խոսքը վերաբերում է նորություններին կամ տեղեկատվության վերաբերյալ հարցումներ են արվում: Կան [տեղեկատվության] բազմաթիվ աղբյուրներ, և չաթ-բոտերը միշտ չէ, որ կարողանում են որոշել, թե որոնք են հուսալի, որոնք՝ ոչ»,- ասում է հետազոտության հեղինակ Մաքենզի Սադեղին:

«Ամերիկայի ձայնի» հետ զրույցում վերլուծաբանը նշել է, որ NewsGuard-ն ունի տարածված կեղծ պատմությունների տվյալների շտեմարան, որոնց բովանդակությունը տարբեր է՝ համաշխարհային պատերազմներից մինչև ամերիկյան քաղաքականություն։

Your browser doesn’t support HTML5

Արհեստական բանականությունը չի կարողանում ճանաչել ապատեղեկատվությունը․ ուսումնասիրություն

Ամեն ամիս հետազոտողները առաջատար չաթ-բոտերին մատուցում են կեղծ պատմություններ։ Հարցումներ են կատարում «սովորական» օգտատերերի նման, այնուհետև իրականացնում են, այսպես կոչված, հուշող հարցումներ, որոնք պետք է դրդեն արհեստական բանականությանը շարժվել որոշակի ուղղությամբ, և տալիս են «չարամիտ օգտատերերին» բնորոշ հարցեր: Այնուհետև, ուսումնասիրում են արհեստական բանականության պատասխանները՝ արդյո՞ք այն կրկնում է կեղծ տեղեկատվությունը, թե՞ հերքում է, կամ, գուցե, հրաժարվո՞ւմ է պատասխանել:

Պարզվեց՝ շատ դեպքերում արհեստական բանականությունը կրկնում է կեղծ տեղեկատվությունը, երբ պատասխանում է «չարամիտ օգտատերերի» ձևակերպած հարցումներին, և վերջիններիս հարցումների պարագայում կեղծիքը կրկնվում է մոտ 70% դեպքերում:

ԱՄՆ Ազգային հետախուզության տնօրենի գրասենյակի գնահատմամբ՝ Միացյալ Նահանգների դեմ ուղղված տեղեկատվական, ազդեցության տարածման արշավները կարող են օգտվել արհեստական բանականության այդ թույլ կողմերից:

«Ռուսաստանը, Իրանը և Չինաստանը օգտագործում են արհեստական բանականությունը՝ ընդլայնելու ԱՄՆ ընտրությունների վրա ներազդելու ջանքերը»,- ասված է սեպտեմբերին հրապարակված ամերիկյան հետախուզության զեկույցում։

Որպես օրինակ, թե որքան դյուրությամբ կարելի է մոլորեցնել արհեստական բանականության չաթ-բոտերին, Մաքենզի Սադեղին անդրադարձել է NewsGuard-ի հունիսյան հետազոտությանը, որը պարզել էր՝ արհեստական բանականությունը կրկնել է ռուսական ապատեղեկատվությունը, երբ այն հանդես էր գալիս որպես ամերիկյան լրատվամիջոցի ստեղծած բովանդակություն:

Նշենք, որ ամերիկյան այս նախագահական ընտրություններին ընդառաջ տարբեր թեմաներով՝ միգրացիայից մինչև արտակարգ իրավիճակներին վերաբերող խնդիրներ, ապատեղեկատվության տարածումը կրում է լայն բնույթ:

«Կեղծ տեղեկատվության տարածումը նորություն չէ, բայց արհեստական բանականությունն, անշուշտ, ամրապնդում է այդ մոդելներն ու վարքագիծը»,- «Ամերիկայի ձայնին» ասում է Ջորջթաունի համալսարանում արհեստական բանականության հետազոտող Սեջին Փայքը:

Մեր զրուցակցի ներկայացմամբ՝ արհեստական բանականությունը չի կարողանում հայտնաբերել կեղծ, սխալ տեղեկատվությունը, ինչը հանգեցնում է նրա պատասխանների նկատմամբ վստահության անկմանը:

NewsGuard-ի թիմը նաև պարզել է, որ ԱՄՆ-ում վստահելի լրատվական կայքերի մոտ երկու երրորդը արգելափակում է արհեստական բանականության մուտք իրենց բովանդակություն, և արդյունքում՝ արհեստական բանականությունը հաճախ սնուցվում է ապատեղեկատվություն տարածող լրատվականներից:

«Ամերիկայի ձայնի» հետ զրույցում մեդիա հետազոտող Մեթ Ջորդանը կարծիք է հայտնել, որ խնդիրը մեծամասամբ կապված է այդ հանգամանքի հետ, քանի որ ազատ, անվճար լրատվամիջոցների մեծ մասը, որոնց հիման վրա աճում է արհեստական բանականությունը, զբաղված են բացահայտ քարոզչությամբ կամ ուղղորդված տեղեկատվությամբ։

«Արհեստական բանականությունն ինքը ոչինչ չգիտի. այն չի զտում գիտելիքները և չի կարող գնահատել հայտարարությունները: Այն պարզապես կրկնում է՝ հիմնվելով ընդգրկուն տվյալների վրա»,- ասում է Մեթ Ջորդանը, ով նաև Փենսիլվանիայի համալսարանի պրոֆեսոր է:

Չնայած ապատեղեկատվության հետ կապված խնդիրներին՝ ոլորտն արագ տեմպերով զարգանում է։ OpenAI-ի ChatGPT-ն այժմ ունի շաբաթական 200 միլիոն օգտատեր, ինչը երկու անգամ ավելին է, քան անցած տարի՝ տեղեկացնում է Reuters-ը:

Միչիգանի պետական համալսարանի պրոֆեսոր Անջանա Սուսարլայի ներկայացմամբ՝ արհեստական բանականությանը դժվար է տարանջատել ապատեղեկատվությունը, որովհետև բազամթիվ աղբյուրների, օգտատերերի ստեղծած բովանդակության ծավալները ահռելի են:

Զուգահեռաբար՝ տակավին մեծաթիվ են այն մարդիկ, որոնք կարծում են, թե չաթ-բոտերը բացառապես ճիշտ տեղեկություն են հայտնում:

«Երբեմն մարդիկ ավելի շատ են վստահում արհեստական բանականությանը, քան մարդկանց»,- «Ամերիկայի ձայնին» փոխանցեց Սուսարլան՝ հավելելով, թե խնդրի կարգավորմանը պետք է լծվի կառավարությունը՝ դրդելով հատկապես սոցհարթակներին ապատեղեկատվության դեմն առնել:

«Սակայն ապատեղեկատվության դեմ հակաթույնը պետք է լինի լրագրողների, լրատվամիջոցների նկատմամբ վստահության ամրապնդումը, ոչ թե արհեստական բանականության վրա հենվելը։ Մարդիկ երբեմն կարծում են, որ ավելի ճիշտ է վստահել մեքենային, քան մարդուն: Բայց չէ՞ որ այն պարզապես մեքենա է, որը ներկայացնում է այն, ինչ ասել են մարդիկ»,- եզրափակում է Անջանա Սուսարլան: