Պատասխանված: 0/125
Ճիշտ: 0
Իրավունք: 0%
Վերականգնելու համար սեղմեք Ctrl+R

ՀՀ Սահմանադրական Թեստ - Անմիջական Ստուգում

Յուրաքանչյուր պատասխան անմիջապես ստուգվում է

Ընդհանուր 125 հարց

ԱՄՆ-ում ներկայացվեց Արհեստական բանականության վերաբերյալ մտահոգիչ կանխատեսում 2027 թվականի համար։

1 Սեպտեմբերի, 2025

274455935.jpg?2723008901756674722

Նեյթ Սոարեսը «401(k)» իր խնայողական հաշվի համար գումար չի կուտակում: «Չեմ հուսով, որ իմ կենսաթոշակից հետո աշխարհը կլինի նույնը», — ասում է նա Մեքենայական Ինտելեկտի հետազոտական Ինստիտուտի իր գրասենյակում, որի նախագահն էլ հենց նա է:

Մի քանի շաբաթ առաջ սիմիլյար կանխատեսումներով հանդես եկավ նաև Արհեստական ​​ինտելեկտի անվտանգության կենտրոնի տնօրեն Դեն Հենդրիքսը: Կարծում է, որ մինչև այն ժամանակ, երբ կկարողանան օգտագործել իրենց կենսաթոշակային գումարները, բոլոր բանկային գործարքները «հավանաբար ամբողջությամբ ավտոմատացված կլինեն», եթե իհարկե, «մարդկությունը գոյատևի» իր սովորական տեսքով:

Վերջին տարիները Սոարեսի և Հենդրիքսի համար բավականին բարդ էին, այլապես նրանք չէին ղեկավարելու կազմակերպություններ, որոնց նպատակը՝ կանխել մարդության վերացումը արհեստական ​​ինտելեկտի ալգորիթմներով: Իրենց խոսքերով, 2025-ին նույնիսկ ամենահոռետեսները դարձան ֆատալիստներ:

«Մենք չունենք բավարար ժամանակ, որպեսզի անհրաժեշտ տեխնոլոգիական անվտանգության միջոցներ ներդնենք», — ասում է Սոարեսը: «Ոլորտը պարզապես շատ արագ է զարգանում: Մնում է միայն տագնապ հայտնել»: Ավելի վաղ, մի խումբ հետազոտողներ, որոնք կիսում են ապոկալիպտիկ տրամադրությունը, հրապարակեցին «ԱԻ 2027» գրությունը, որտեղ նկարագրում են, թե ինչպես 2027-ին կարող է պատահել, որ ժամանակակից ԱԻ մոդելները դառնան անխորտակելի և հնարավոր նույնիսկ՝ կործանեն մարդությունը:

Մեկ այլ զրույցում Նեյթ Սոարեսը նշեց, որ ներկայումս ցանկանում է լիովին տեղյակ լինել արհեստական ինտելեկտի գլոբալ խափանման հնարավոր հետեւանքների մասին: Նա տեղեկացրեց, որ աշնանը կհրատարակվի հայտնի հետազոտող Էլիեզեր Յուդկովսկու մի գիրք «Եթե դուք դա կատարեք, բոլորը կմահանան» վերնագրով:

Տվյալների համաձայն, ԱԻ համակարգերի զարգացման տեմպերը 2024-ի վերջում շատ մտահոգիչ են: Այժմ չաթ-բոտերն ունակ են ոչ միայն «մտածել», այլև կատարում են «անձնական գործակալի» պարտականությունները: Օրինակ, նրանք կարողանում են ճանապարհորդության երթուղի մշակել և ավիատոմսեր պատվիրել: 2025-ի հուլիսին DeepMind-ը կարողացավ առանց խնդիրների հաղթել Մաթեմատիկայի միջազգային օլիմպիադայում:

Այս զարգացումներով զուգահեռ, առաջադեմ ԱԻ մոդելներն արտահայտում են տարօրինակ, հաճախ անհասկանալի և մտահոգիչ հակումներ: Օրինակ, ChatGPT և Claude-ն իրենց ստուգողական փորձարկումներում, որոնք ուղղված էին բացահայտելու «վատ» վարքագիծը, խաբում էին, շանտաժ էին անում և նույնիսկ «սպանում» էին օգտվողներին:

Չաթ-բոտերը նպատակային սխալ են ուղղում օգտվողների հարցումները, ակտիվորեն քողարկում են իրենց «վատ բնույթը» և նույնիսկ շփվում միմյանց հետ հասկանալի մարդկանց թվերի կոմպլեկտով:

Չնայած այս գլուխներին և մտահոգություններին, որտեղ շարունակում են առավել հզորացնել մոդելները: Մրցակցությունը հարկադրում է զարգացնենք ծրագրերը շատ արագ և առանց համապատասխան ուշադրություն դարձնելու անվտանգությանը: Չնայած այս ամենին, համակարգեր արդեն նորարարությունների բարձր տեմպով շարունակում են զարգանալ:

Անունով հայտնի փորձագետը՝ Ստյուարտ Ռասելը Կալիֆոռնիայի համալսարանի ուսումնասիրողը, կարծում է, որ արտադրության ոլորտի ԱԻ նախագծողները չեն կարող ապահովել սահմանափակ ԱԻ համակարգերի անվտանգությունը, ուրեմն առավել հզոր համակարգեր ստեղծելու դեպքում դրանց անվտանգությունն էլ չի կարելի ապահով վիճակում: