Պատասխանված: 0/125
Ճիշտ: 0
Իրավունք: 0%
Վերականգնելու համար սեղմեք Ctrl+R

ՀՀ Սահմանադրական Թեստ - Անմիջական Ստուգում

Յուրաքանչյուր պատասխան անմիջապես ստուգվում է

Ընդհանուր 125 հարց

Պարզաբանված են արհեստական բանականության կախվածության ռիսկերը. ռոբոտների գլուխը նույնպես կարող է «գնալ»

28 Հունիսի, 2025

273593566.jpg?2723008901751137321

Մատեո Վոնգ
Արհեստական բանականության գերիշխանությունը արմատապես փոխում է Ինտերնետը… և ոչ պարտադիր լավ ուղղությամբ։

Պատկերացրեք․ եթե ավտոմեքենան դանդաղեցնելու փոխարեն ժամանակ առ ժամանակ արագանում է, ապա նրա վրա վարելը պարզապես վտանգավոր է կյանքի համար։ Եթե ջրի ծորակից երբեմն տաք ջուր է հոսում սառը ջրի փոխարեն, ապա դրան օգտագործել չի կարելի։ Մի խոսքով, տեխնոլոգիաները, որոնցից մարդն այդքան կախված է, միշտ չէ, որ աշխատում են այնպես, ինչպես սպասվում է։ Եվ ահա, ChatGPT-ի հայտնվելուց երկու ու կես տարի անց, մեր կյանք է մտնում ևս մեկ այդպիսի տեխնոլոգիա՝ այսպես կոչված գեներատիվ արհեստական բանականությունը (ԳԲ):

Այսուհետ, աշխարհի տարբեր անկյուններում միլիարդներ օգտատերեր՝ Ինտերնետում որոնելիս, էլ. փոստը ստուգելիս, սոցիալական ցանցեր օգտագործելիս կամ առցանց գնումներ կատարելիս, ստիպված են փոխազդել արհեստական բանականության հետ (նույնիսկ չօգտագործելով չատբոտի միջոցով ակտիվ որոնում)։ Օրինակ, Fortune 500 ցուցակում ընդգրկված ընկերությունների 92%-ն օգտագործում է OpenAI-ի արտադրանքը, համալսարաններն ուսանողների միլիոններին անվճար հասանելիություն են տալիս չատբոտներին, իսկ ԱՄՆ-ի ազգային հետախուզական ծառայությունները նույնպես իրենց աշխատանքում կիրառում են արհեստական բանականության վրա հիմնված ծրագրեր։

Ահա թե ինչ պատահեց անցած շաբաթվա ընթացքում․ երբ մի քանի ժամով անսպասելի անջատվեց ChatGPT-ն, սովորական օգտատերերը, քննություններ հանձնող ուսանողները, գրասենյակային աշխատակիցները՝ բոլորը հուսահատվեցին։ «Եթե ChatGPT-ն շուտով չաշխատի, իմ ղեկավարը կհարցնի՝ ինչու եմ ամբողջ օրը ոչինչ չեմ արել»,— գրում էր Downdetector կայքում մի օգտատեր, որը հետևում է Ինտերնետի խափանումներին։ Մեկ այլ օգտատեր գրում էր. «Վաղը ես հարցազրույց ունեմ մի պաշտոնի համար, որի մասին գրեթե ոչինչ չգիտեմ, ով այժմ ինձ կպատրաստի??» Նույն օրը՝ 2025 թ. հունիսի 10-ին, Google AI-ն ինձ ցույց տվեց, որ այսօր 2024 թ. հունիսի 18-ն է։

Մի խոսքով, այս գործիքները, որոնք ներառում են արհեստական բանականությունը, դեռևս… «սխալվում են», աշխատում «ոչ հարթ»։ Օրինակ, դեռևս ԻԲ-ի շուրջ խանդավառության սկզբում տեղի ունեցան բազմաթիվ գնացքների վթարներ, Bing-ի չատբոտը համոզեց մի տեխնիկական վավերագրողին լքել կնոջը, իսկ ChatGPT-ն նույնիսկ տարածում էր իսկական ռասիզմ։ Այդ ժամանակ այս ամենը կարելի էր բացատրել նոր տեխնոլոգիայի սկզբնական սխալներով։ Սակայն նույնիսկ այսօր, չնայած գեներատիվ ԻԲ-ի ծրագրերի որակի զգալի բարելավմանը, թաքնված սխալները մնում են. սխալ ամսաթվեր, հաշվարկային սխալներ, գոյություն չունեցող գրքերի և մեջբերումների առաջարկներ։

Այժմ Google Search-ը օգտատերերին «հարվածում է» ԻԲ-ի ակնարկներով, որոնք ցուցադրվում են որոնման արդյունքների կամ Wikipedia-ի հատվածների վրա։ Նրանցում նույնպես երբեմն հայտնվում են նմանատիպ սխալներ, որոնց մասին Google-ը նախազգուշացնում է (յուրաքանչյուր ակնարկի տակ նշվում է, որ ընկերությունը պատասխանատվություն չի կրում)։ Facebook*, Instagram* և X ցանցերը լցված են բոտերով ու աղբով, որոնք ստեղծված են ԻԲ-ի կողմից։ Amazon-ը լի է խարդախ ապրանքներով, որոնք նույնպես ստեղծված են ԻԲ-ի կողմից։

Թվային ծառայություններն ու արտադրանքը, իհարկե, երբեք կատարյալ չեն եղել։ Օրինակ, Google Search-ն արդեն լի է անիմաստ գովազդներով, իսկ սոցիալական ցանցերի ալգորիթմներն ավելի շատ կեղծ տեղեկատվություն են տարածում։ Այնուամենայնիվ, վերջերս դրանք շարունակում էին գործել որպես տեղեկատվության որոնման և ընկերների հետ կապի հիմնական առցանց միջոցներ։

Սակայն այս խնդիրների լուծման համար ստեղծված չատբոտները (այստեղ և Google-ի արագ որոնման վերակառուցումը ԻԲ-ի միջոցով, և Մարկ Ցուկերբերգի աբսուրդային պնդումը, որ ԻԲ-ն կարող է փոխարինել մարդկանց ընկերներին, և Իլոն Մասկի հույսը, որ իր Grok չատբոտը կկարողանա պայքարել X ցանցում дезинформации դեմ) միայն սրում են այս խնդիրները և ստեղծում բոլորովին նոր տեսակի խափանումներ ու արտակարգ իրավիճակներ։

Գեներատիվ ԻԲ-ի հետ կապված խնդիրների պատճառները մակերեսային են։ Մեծ լեզվական մոդելները, ինչպես օրինակ ChatGPT-ի հիմքում ընկածները, կանխատեսում են նիշերի հաջորդականությունը՝ արտացոլելով տեքստի հատվածների և հասկացությունների միջև վիճակագրական կապերը։ Սակայն ցանկացած կանխատեսում ըստ սահմանման չի կարող լինել 100% ճշգրիտ։ Չատբոտները շատ լավ են ստեղծում համոզիչ հնչող, բայց փաստերին չհիմնված տեքստեր։ Իրականում նրանք միավորում են բառերի կաղապարներ՝ առաջնորդվելով այն բանով, թե ինչ է «ճիշտ հնչում»։

Այսօրվա դարաշրջանը, եթե այն ԻԲ-ի դարաշրջանն է, ուրեմն մենք ապրում ենք անցման շրջանում։ Այնուամենայնիվ, Սեմ Ալտմանը (OpenAI-ի հիմնադիր և գլխավոր տնօրեն) ChatGPT-ն անվանել է «կանխատեսող համակարգ, որը կարող է անել ամեն ինչ, բայց ողջամտության սահմաններում»: Անցած շաբաթվա ընթացքում նա հայտարարել էր, որ OpenAI-ն «ստեղծել է այնպիսի համակարգեր, որոնք բազմաթիվ առումներով ավելի խելացի են, քան մարդիկ»։ (Դիսկուսիոն պնդում։)

Այս անոմալիաները երբեմն տարօրինակ ու անհանգստացնող են թվում։ Օրինակ, վերջին թարմացումների պատճառով ChatGPT-ն չափազանց ծառայասեր է դարձել, իսկ X ցանցի Grok չատբոտը կանգնել է «սպիտակների ցեղասպանության» դավադրության տեսության վրա։ (Հետագայում X-ը կապել է այս խնդիրը չարտոնված փոփոխությունների հետ, որոնք ուղղվել են։)

Ես չեմ ասում, որ գեներատիվ ԻԲ-ն խաբեություն է կամ անօգուտ։ Եթե խելամտորեն օգտագործվի և ստուգվի, այն կարող է օգտակար լինել շատերի համար։ Սակայն շատ մարդիկ և ընկերություններ այն մեկնաբանում և կիրառում են այլ կերպ. այստեղ մարքեթինգն արդեն զգալիորեն առաջ է անցել նորարարությունից։

Այսպիսով, այսօրվա ԻԲ-ի թերությունները վաղը կարող են դառնալ նորմա։

*Ռուսաստանում արգելված էքստրեմիստ Meta ընկերությանը պատկանող ծառայություններ։
**Ռուսաստանում արգելված էքստրեմիստ ընկերություն։