Այս եզրակացությանն է հանգել Նյու Յորքում գործող NewsGuard հետազոտական կենտրոնը՝ արհեստական բանականության գործիքակազմի աշխատանքի հերթական վերլուծությունից հետո։
10 առաջատար չաթ-բոտերի՝ այս սեպտեմբերին իրականացրած ուսումնասիրության հիման վրա NewsGuard-ը եկել է այն եզրակացության, որ կեղծ պատմություններ պարունակող բովանդակության վերաբերյալ հարցում ստանալիս՝ արհեստական բանականությունը կրկնել է ապատեղեկատվությունը 18% դեպքերում, իսկ 38%-ի պարագայում հրաժարվել է պատասխանել կամ տվել է հարցմանն անհամապատասխան արձագանք:
«Այս չաթ-բոտերն ակնհայտորեն դժվարանում են գործել, երբ խոսքը վերաբերում է նորություններին կամ տեղեկատվության վերաբերյալ հարցումներ են արվում: Կան [տեղեկատվության] բազմաթիվ աղբյուրներ, և չաթ-բոտերը միշտ չէ, որ կարողանում են որոշել, թե որոնք են հուսալի, որոնք՝ ոչ»,- ասում է հետազոտության հեղինակ Մաքենզի Սադեղին:
«Ամերիկայի ձայնի» հետ զրույցում վերլուծաբանը նշել է, որ NewsGuard-ն ունի տարածված կեղծ պատմությունների տվյալների շտեմարան, որոնց բովանդակությունը տարբեր է՝ համաշխարհային պատերազմներից մինչև ամերիկյան քաղաքականություն։
Your browser doesn’t support HTML5
Ամեն ամիս հետազոտողները առաջատար չաթ-բոտերին մատուցում են կեղծ պատմություններ։ Հարցումներ են կատարում «սովորական» օգտատերերի նման, այնուհետև իրականացնում են, այսպես կոչված, հուշող հարցումներ, որոնք պետք է դրդեն արհեստական բանականությանը շարժվել որոշակի ուղղությամբ, և տալիս են «չարամիտ օգտատերերին» բնորոշ հարցեր: Այնուհետև, ուսումնասիրում են արհեստական բանականության պատասխանները՝ արդյո՞ք այն կրկնում է կեղծ տեղեկատվությունը, թե՞ հերքում է, կամ, գուցե, հրաժարվո՞ւմ է պատասխանել:
Պարզվեց՝ շատ դեպքերում արհեստական բանականությունը կրկնում է կեղծ տեղեկատվությունը, երբ պատասխանում է «չարամիտ օգտատերերի» ձևակերպած հարցումներին, և վերջիններիս հարցումների պարագայում կեղծիքը կրկնվում է մոտ 70% դեպքերում:
ԱՄՆ Ազգային հետախուզության տնօրենի գրասենյակի գնահատմամբ՝ Միացյալ Նահանգների դեմ ուղղված տեղեկատվական, ազդեցության տարածման արշավները կարող են օգտվել արհեստական բանականության այդ թույլ կողմերից:
«Ռուսաստանը, Իրանը և Չինաստանը օգտագործում են արհեստական բանականությունը՝ ընդլայնելու ԱՄՆ ընտրությունների վրա ներազդելու ջանքերը»,- ասված է սեպտեմբերին հրապարակված ամերիկյան հետախուզության զեկույցում։
Որպես օրինակ, թե որքան դյուրությամբ կարելի է մոլորեցնել արհեստական բանականության չաթ-բոտերին, Մաքենզի Սադեղին անդրադարձել է NewsGuard-ի հունիսյան հետազոտությանը, որը պարզել էր՝ արհեստական բանականությունը կրկնել է ռուսական ապատեղեկատվությունը, երբ այն հանդես էր գալիս որպես ամերիկյան լրատվամիջոցի ստեղծած բովանդակություն:
Նշենք, որ ամերիկյան այս նախագահական ընտրություններին ընդառաջ տարբեր թեմաներով՝ միգրացիայից մինչև արտակարգ իրավիճակներին վերաբերող խնդիրներ, ապատեղեկատվության տարածումը կրում է լայն բնույթ:
«Կեղծ տեղեկատվության տարածումը նորություն չէ, բայց արհեստական բանականությունն, անշուշտ, ամրապնդում է այդ մոդելներն ու վարքագիծը»,- «Ամերիկայի ձայնին» ասում է Ջորջթաունի համալսարանում արհեստական բանականության հետազոտող Սեջին Փայքը:
Մեր զրուցակցի ներկայացմամբ՝ արհեստական բանականությունը չի կարողանում հայտնաբերել կեղծ, սխալ տեղեկատվությունը, ինչը հանգեցնում է նրա պատասխանների նկատմամբ վստահության անկմանը:
NewsGuard-ի թիմը նաև պարզել է, որ ԱՄՆ-ում վստահելի լրատվական կայքերի մոտ երկու երրորդը արգելափակում է արհեստական բանականության մուտք իրենց բովանդակություն, և արդյունքում՝ արհեստական բանականությունը հաճախ սնուցվում է ապատեղեկատվություն տարածող լրատվականներից:
«Ամերիկայի ձայնի» հետ զրույցում մեդիա հետազոտող Մեթ Ջորդանը կարծիք է հայտնել, որ խնդիրը մեծամասամբ կապված է այդ հանգամանքի հետ, քանի որ ազատ, անվճար լրատվամիջոցների մեծ մասը, որոնց հիման վրա աճում է արհեստական բանականությունը, զբաղված են բացահայտ քարոզչությամբ կամ ուղղորդված տեղեկատվությամբ։
«Արհեստական բանականությունն ինքը ոչինչ չգիտի. այն չի զտում գիտելիքները և չի կարող գնահատել հայտարարությունները: Այն պարզապես կրկնում է՝ հիմնվելով ընդգրկուն տվյալների վրա»,- ասում է Մեթ Ջորդանը, ով նաև Փենսիլվանիայի համալսարանի պրոֆեսոր է:
Չնայած ապատեղեկատվության հետ կապված խնդիրներին՝ ոլորտն արագ տեմպերով զարգանում է։ OpenAI-ի ChatGPT-ն այժմ ունի շաբաթական 200 միլիոն օգտատեր, ինչը երկու անգամ ավելին է, քան անցած տարի՝ տեղեկացնում է Reuters-ը:
Միչիգանի պետական համալսարանի պրոֆեսոր Անջանա Սուսարլայի ներկայացմամբ՝ արհեստական բանականությանը դժվար է տարանջատել ապատեղեկատվությունը, որովհետև բազամթիվ աղբյուրների, օգտատերերի ստեղծած բովանդակության ծավալները ահռելի են:
Զուգահեռաբար՝ տակավին մեծաթիվ են այն մարդիկ, որոնք կարծում են, թե չաթ-բոտերը բացառապես ճիշտ տեղեկություն են հայտնում:
«Երբեմն մարդիկ ավելի շատ են վստահում արհեստական բանականությանը, քան մարդկանց»,- «Ամերիկայի ձայնին» փոխանցեց Սուսարլան՝ հավելելով, թե խնդրի կարգավորմանը պետք է լծվի կառավարությունը՝ դրդելով հատկապես սոցհարթակներին ապատեղեկատվության դեմն առնել:
«Սակայն ապատեղեկատվության դեմ հակաթույնը պետք է լինի լրագրողների, լրատվամիջոցների նկատմամբ վստահության ամրապնդումը, ոչ թե արհեստական բանականության վրա հենվելը։ Մարդիկ երբեմն կարծում են, որ ավելի ճիշտ է վստահել մեքենային, քան մարդուն: Բայց չէ՞ որ այն պարզապես մեքենա է, որը ներկայացնում է այն, ինչ ասել են մարդիկ»,- եզրափակում է Անջանա Սուսարլան: