08.05.2023
Նրանց թվում, ովքեր ի սկզբանե բացահայտորեն հարցեր էին տալիս ChatGPT-ի օգտագործման էթիկայի մասին, եղել է նեյրոնային ցանցերի մշակող, բրիտանացի կանադացի գիտնական Ջեֆրի Հինթոնը։ Նա զգալի ներդրում է ունեցել արհեստական բանականության չաթ-բոտերի զարգացման գործում, սակայն վերջին ամիսներին նա դարձել է AI-ի անխոհեմ օգտագործման սկզբունքային հակառակորդը։ 2023 թվականի գարնանը նա լքեց Google-ը։ Yerevan.Online-ը խոսում է այն մասին, թե ինչու է Հինթոնին անվանել «արհեստական բանականության կնքահայր» և ինչու է նա այդքան քննադատաբար վերաբերվում այն տեխնոլոգիաներին, որոնք վերջերս օգնել է ստեղծել:
2012 թվականին Տորոնտոյի համալսարանի պրոֆեսոր Ջեֆրի Հինթոնը և նրա երկու ուսանողները մշակեցին մի համակարգ, որը կարող էր վերլուծել հազարավոր պատկերներ և սովորեցնել ճանաչել իրական կյանքում նմանատիպ առարկաները՝ ծաղիկները, կենդանիները կամ մեքենաները, աննախադեպ ճշգրտությամբ: Ակնառու ձեռքբերումից հետո Հինթոնը և նրա աշակերտները՝ Իլյա Սուցկվերը և Ալեքս Կրիժևսկին շարունակեցին իրենց հետազոտությունները, և ընկերությունը, որում նրանք աշխատում էին նեյրոնային ցանցերի վրա, ձեռք բերվեց Google-ի կողմից: Հենց բրիտանացի պրոֆեսորի և երկու ուսանողների զարգացումներն արագացրին AI-ի ներդրումը և հանգեցրին ChatGPT-ի, Google Bard-ի և այլ չաթ բոտերի առաջացմանը:
2018 թվականին Հինթոնը ստացել է Ալան Թյուրինգի մրցանակը «կոնցեպտուալ և ինժեներական առաջընթացի համար, որոնք խորը նեյրոնային ցանցերը դարձրել են հաշվարկման անկյունաքար»։ Հինգ տարի անց գիտնականը կտրուկ փոխեց իր տեսակետը արհեստական ինտելեկտի վերաբերյալ, հեռացավ Google-ից և մայիսի 1-ին հարցազրույց տվեց The New York Times-ին (NYT), որտեղ նա խոսեց այս ոլորտում վտանգների մասին: Չաթ-բոթերի և նմանատիպ այլ տեխնոլոգիաների հիմնական սպառնալիքը, ըստ Հինթոնի, այն է, որ ինտերնետն այնքան լցված կլինի կեղծ բովանդակությամբ՝ գեներացված լուսանկարներով, տեսանյութերով և տեքստերով, որ սովորական մարդիկ «այլևս չեն իմանա, թե որտեղ է ճշմարտությունը»:
Գիտնականը նաև մտավախություն է հայտնել, որ արհեստական ինտելեկտի տեխնոլոգիաները, ի վերջո, մարդկային օգնականներից կվերածվեն նրանց փոխարինողի և բազմաթիվ մասնագիտությունների ներկայացուցիչներ կթողնեն առանց աշխատանքի։ «Ոմանք կարծում էին, որ տեխնոլոգիան կարող է մեզանից ավելի խելացի դառնալ, բայց շատերը կարծում էին, որ դա չափազանցություն է», - ասաց Հինթոնը NYT-ին: «Ես նույնպես կարծում էի, որ դա շատ հեռու է: Ես կարծում էի, որ մենք 30-ից 50 տարի կամ նույնիսկ ավելին ունենք անցնելու: Ակնհայտ է, որ այլևս այդպես չեմ մտածում»:
Հինթոնը ծնվել է 1947 թվականին հարգված միջատաբանի ընտանիքում, ով ապրում էր Ուիմբլդոնում (Լոնդոնի արվարձան): Նրա նախապապ Ջորջ Բուլը զարգացրեց մաթեմատիկական տրամաբանությունը, իսկ Բուլյան հանրահաշիվը, որն անվանվել է նրա անունով, հիմք դրեց տեղեկատվական դարաշրջանում զարգացած տեխնոլոգիաներից շատերի համար։
Ի զարմանս իր հոր՝ Ջեֆրին որոշեց ուսումնասիրել ոչ թե միջատներին, այլ մարդկանց։ 1970 թվականին նա ավարտեց Քեմբրիջի համալսարանը փորձարարական հոգեբանության մասնագիտությամբ, բայց հետո ընդմիջեց ակադեմիական գործունեությունից և մեկ տարի անցկացրեց ատաղձագործության մեջ։ «Գիտությունը հոգնեցրեց ինձ, և ես որոշեցի, որ ուզում եմ ատաղձագործ դառնալ», - բացատրեց Հինթոնը: 1972 թվականին Ջեֆրին սկսել է հետաքրքրվել Էդինբուրգի համալսարանի արհեստական ինտելեկտի ծրագրով, հրաժարվել է ատաղձագործ դառնալու իր երազանքից և տեղափոխվել Շոտլանդիա։ Այնտեղ նա խորասուզվեց նեյրոնային ցանցերի զարգացման մեջ։
«Այնուհետև երկրի վրա ոչ մի մարդ չէր հավատում այս գաղափարին», - ասաց Հինթոնը: «Դա փակուղի էր համարվում նույնիսկ AI հետազոտողների շրջանում»:
Սակայն երիտասարդ բրիտանացու զարգացումները գրավեցին Սան Դիեգոյի մի խումբ ճանաչողական հոգեբանների ուշադրությունը։ Հինթոնը մեկնեց ԱՄՆ և սկսեց ուսումնասիրել ետ տարածումը, մի ալգորիթմ, որը թույլ էր տալիս նեյրոնային ցանցերին սովորել և կատարելագործվել: Հետագայում այն մեթոդները, որոնց ստեղծման գործում ակտիվ մասնակցություն է ունեցել Հինթոնը, կոչվել են խորը ուսուցում։ Նրանք թույլ են տվել AI-ին ոչ միայն կատարել կոնկրետ գործողություններ մեկ ալգորիթմի շրջանակներում, այլ նաև ընդլայնել իր հնարավորությունները արտաքին տվյալների օգնությամբ։
«Գաղափարն այն էր, որ ստանանք սարք, որը կսովորի այնպես, ինչպես ուղեղն է սովորում», - ասաց Հինթոնը: - Դա իմ գաղափարը չէր, Ալան Թյուրինգը նույն կերպ էր մտածում։ Նա կարծում էր, որ ուղեղը անկազմակերպ մեքենա է, որն օգտագործում է ամրապնդող ուսուցում, որպեսզի փոխի իր ներսում կապերը, և որն ի վիճակի է սովորել ամեն ինչ: Նա կարծում էր, որ սա լավագույն մոտեցումն է հետախուզության ուսումնասիրության համար»:
Համակարգ ստեղծելու ցանկությունը, որը կարող էր սովորել այնպես, ինչպես մարդկային ուղեղը, որոշեց Հինթոնի ողջ կարիերան: 1970-ականների վերջին և 1980-ականներին նա ակտիվորեն փորձում էր ստեղծել ձայներ և պատկերներ ճանաչելու ունակ ալգորիթմներ։ Այն ժամանակվա գիտնականների նախագծերում առանցքային դեր են խաղացել ներքին ներկայացուցչությունները, այսինքն՝ տեղեկատվական կառույցները, որոնք ընկալող համակարգը ստեղծում և պահպանում է որպես արտաքին օբյեկտներին բնորոշ որակների համակցություն:
«Հարցը, թե ինչպես ստեղծել ներքին ներկայացուցչություններ, համարվում է արհեստական ինտելեկտի հետազոտության սուրբ գրալ», - բացատրեց Հինթոնը: Այնուամենայնիվ, կես դար առաջ համակարգիչները բավականաչափ արագ չէին ներքին պատկերացումներ ստեղծելու համար այնքան արագ, որքան մարդկային ուղեղը:
1982 թվականից ի վեր Հինթոնը պրոֆեսոր էր Պիտսբուրգի Կարնեգի Մելլոն համալսարանում, սակայն ԱՄՆ նախագահ Ռոնալդ Ռեյգանի վարչակազմի քաղաքականությունը գնալով ավելի էր նյարդայնացնում բրիտանացուն: Նրան դուր չէր գալիս, որ ԱՄՆ-ում արհեստական ինտելեկտի հետազոտությունների մեծ մասը հովանավորվում էր պաշտպանության նախարարության կողմից, ուստի Հինթոնը 1980-ականների կեսերին տեղափոխվեց Կանադա, որտեղ նրան առաջարկեցին պաշտոններ Կանադայի առաջադեմ ուսումնասիրությունների ինստիտուտում և Տորոնտոյի համալսարանում: .
Այնտեղ Հինթոնը շարունակեց իր հետազոտությունը, չնայած այն հանգամանքին, որ մինչ այդ նրա գործընկերներից շատերը հիասթափվել էին սովորող արհեստական ինտելեկտի ստեղծման գաղափարից և սկսել էին այլ նախագծեր: «1990-ականներին տվյալների հավաքածուները բավականաչափ մեծ չէին, և համակարգիչները բավականաչափ արագ չէին», - ասաց Հինթոնը: «Մյուս մեթոդներն ավելի լավ են աշխատել փոքր տվյալների հավաքածուների դեպքում: Նրանք չէին շեղում ինֆորմացիայի առատությամբ։ Դա շատ ճնշող էր, որովհետև մենք 1980-ականներին զարգացրինք ետ տարածումը և կարծում էինք, որ լուծել ենք բոլոր խնդիրները: Մենք անհանգստանում էինք, թե ինչու դեռ չենք կարողանում օգտագործել այս տեխնոլոգիան»։
Արհեստական համակարգերի վարժունակության հետ կապված գլուխկոտրուկը լուծվեց արդեն 21-րդ դարում ավելի արագ և հզոր համակարգիչների հայտնվելով: Հինթոնին և նրա գործընկերներին հաջողվել է արհեստական համակարգերի մեջ մտցնել ալգորիթմներ, որոնք թույլ են տվել նրանց ներքին ներկայացուցչություններ ձևավորել: AI-ին տրամադրվել են նաև խոսքի ձևեր, որոնք թույլ են տվել ընկալել և մեկնաբանել բանավոր խոսքը և գրավոր տեքստերը: Հինթոնի համակարգերում ներկառուցված առանձնահատկությունների դետեկտորները մշակել են տեղեկատվության կտորներ և կապեր գտել դրանց միջև, ինչի շնորհիվ ուսուցման գործընթացը նկատելիորեն արագացել է։
Առողջական խնդիրների պատճառով Հինթոնը ստիպված է եղել ոտքի կանգնել հետազոտություն կատարել։ Նա պատանի հասակում վնասել է մեջքը՝ մոր համար տաքացուցիչ տանելիս։ Այդ ժամանակվանից նստած դիրքը գիտնականին սպառնում էր սկավառակի ճողվածքով, ուստի նա ընտելացավ անընդհատ կանգնելուն։ «Վերջին անգամ ես նստել եմ 2005 թվականին», - խոստովանել է Հինթոնը 2012 թվականին: «Եվ պարզվեց, որ դա մեծ սխալ է»:
«Այլ գիտնականներ ունեին նմանատիպ գաղափարներ, բայց նա միշտ եղել է իրերի կենտրոնում», - բացատրեց Հինթոնի ներդրումը AI հետազոտություններում, NYT լրագրող և գրող Քեյդ Մեցը: - Նա ակտիվորեն մասնակցել է համակարգերի ստեղծմանը, որոնք սովորել են նախ ճանաչել խոսքը, իսկ հետո՝ պատկերը։ Այս երկու պահերը դարձել են առանցքային տեխնոլոգիական առաջընթացի և մեր ժամանակներում AI-ի կիրառման համար»:
Խորը ուսուցման եզակի հնարավորություններով նեյրոնային ցանց մշակելուց հետո Հինթոնը 2012-ին հիմնեց DNNresearch-ը և վարձեց ուսանողների Իլյա Սուցկվերին և Ալեքս Կրիժևսկուն՝ իր հետ AI հետազոտություններ անելու համար: Չնայած ընդամենը երեք պաշտոնական աշխատող ունեցող ընկերության համեստ կարգավիճակին, խոշոր կորպորացիաների միջև պայքար սկսվեց DNN-ի հետազոտությունը կլանելու հնարավորության համար: Չինական տեխնոլոգիական հսկա Baidu-ն, Google-ը, Microsoft-ը և բրիտանական DeepMind ստարտափը՝ բրիտանացի նյարդաբան Դեմիս Հասաբիսի կողմից, որը գործարկվել էր ընդամենը երկու տարի առաջ, հայտ էին ներկայացրել Hinton-ի հետ համագործակցելու համար:
Աճուրդի արդյունքում DNNresearch-ը հայտնվել է Google-ի հսկողության տակ 44 մլն դոլարով։ Չնայած Baidu-ի կողմից ավելի մեծ գումար առաջարկելու պատրաստակամությանը, Հինթոնն ինքը որոշեց դադարեցնել աճուրդը, քանի որ չէր ցանկանում, որ գիտական համագործակցությունը վերածվի ֆարսի։ Այդ ժամանակից մինչև այս տարվա մայիսը «AI-ի կնքահայրը» շարունակեց Google-ում զարգացնել ավելի առաջադեմ նեյրոնային ցանցեր:
2021 թվականին Հինթոնը կենտրոնանում է GLOM համակարգի կառուցման վրա: Ինչպես ծրագրել էր Hinton-ը, նոր մշակումը պետք է լուծեր AI-ի հետ կապված հիմնական խնդիրներից մեկը, քանի որ այն հնարավորություն կունենար ճանաչել նույն օբյեկտները տարբեր տեսանկյուններից: Մինչ այս, չնայած նեյրոնային համակարգերի և հարակից տեխնոլոգիաների արագ զարգացմանը, ալգորիթմը կարող էր, օրինակ, չճանաչել նույն բաժակը, եթե այն պատկերված լիներ նախ կողքից, ապա՝ վերևից։ Նման առաջադրանքները շարունակում էին մոտիվացնել և ոգեշնչել Հինթոնին, չնայած այն կարգավիճակին և դիրքին, որը նա ձեռք էր բերել գրեթե կեսդարյա կարիերայի ընթացքում:
Հինթոնի մեկ այլ գաղափար էր նեյրոնային համակարգերը համալրել «համաձայնության վեկտորներով»՝ ալգորիթմներով, որոնք կվերլուծեն տեղեկատվությունը նման կերպ, բայց կլրացնեն միմյանց և կօգնեն ավելի մեծ պատկեր ստեղծել: Գիտնականը այս մոտեցումը համեմատեց մի խումբ մարդկանց հետ, ովքեր ուղեղի փոթորիկ են անում. նրանք բոլորը կարող են համաձայնվել միմյանց հետ, բայց քննարկման ընթացքում նրանք, ամենայն հավանականությամբ, կկարողանան բարելավել իրենց անհատական ներքին ներկայացումները:
«Ջեֆը շատ անսովոր մտածող է նրանով, որ նա կարողանում է բարդ մաթեմատիկական հասկացությունները համատեղել կենսաբանական գործոնների հետ և ձևակերպել տեսություններ՝ հիմնված այս կապի վրա», - ասում է նյարդաբան և Հինթոնի նախկին ուսանող Սյու Բեքերը: «Ավելի նեղ պրոֆիլի հետազոտողները կենտրոնանում են կամ մաթեմատիկական տեսության կամ նյարդաբանության վրա: Նրանք շատ ավելի քիչ հավանական է պատասխան գտնել այն հարցին, թե ինչպես մարդիկ և մեքենաները կարող են սովորել և մտածել»:
Երբ Google-ը, OpenAI-ը և AI տեխնոլոգիական այլ ընկերություններ սկսեցին զարգացնել նեյրոնային ցանցեր, որոնք սովորում էին թվային տեքստի մեծ կտորներից, Հինթոնն առաջարկեց, որ մեքենաներն այժմ ավելի լավ հնարավորություն կունենան ճանաչելու և ստեղծելու լեզուներ: Սակայն սովորելու այս ձևը, նրա կարծիքով, դեռևս զիջում էր նրան, թե ինչպես են մարդիկ ճանաչում տեքստն ու խոսքը։
Հինթոնի դիրքորոշումը փոխվեց 2022 թվականին, երբ Google-ը և OpenAI-ը մշակեցին համակարգեր շատ ավելի մեծ տվյալների բազաներով, քան նախկինում։ Մինչ այս գիտնականը հպարտանում էր, որ Google-ը զգուշավոր է գործում և թույլ չի տալիս շուկա մուտք գործել տեխնոլոգիաներ, որոնք տեսականորեն կարող են վնասել մարդկությանը։ Սակայն անցած տարում Microsoft-ի և Google-ի միջև մրցակցությունը երկու ընկերություններին էլ դրդեց թողարկել չաթ-բոտեր, որոնք, ըստ Hinton-ի, դեռևս լիովին չեն հասկացել նույնիսկ իրենք՝ մշակողները: Գիտնականի խոսքով՝ որոշ առումներով նեյրոնային ցանցերն ավելի կատարյալ են դարձել, քան մարդու ուղեղը։
«Հավանականություն կա, որ այն, ինչ տեղի է ունենում այս համակարգերում, զգալիորեն գերազանցում է մարդու ուղեղում ընթացող գործընթացների բարդությունը», - ասում է գիտնականը: «Տեսեք, թե ինչ է տեղի ունեցել [AI հետազոտության մեջ] հինգ տարի առաջ և ինչ է տեղի ունենում հիմա: Պատկերացրեք, թե ինչ արագությամբ կկատարվեն փոփոխություններ ապագայում: Դա վախեցնում է». Հինթոնի գործընկերներից շատերը սպառնալիքը դեռ համարում են հիպոթետիկ, սակայն նա ինքը վստահ է, որ աղետից խուսափելու համար Google-ը, Microsoft-ը և այլ տեխնոլոգիական հսկաները պետք է ենթարկվեն խիստ վերահսկողության։
Հինթոնը մտավախություն ունի, որ տեխնոլոգիաները մարդկանց մեծամասնության համար ի վերջո կփշրեն գեղարվեստական գրականության և իրականության սահմանները, ինչպես նաև հիմնովին կփոխեն իրավիճակը աշխատաշուկայում: Գիտնականի մտահոգության ևս մեկ պատճառն այն է, որ արհեստական համակարգերը կարող են սովորել անկանխատեսելի վարքագիծ, երբ վերլուծում են հսկայական քանակությամբ տվյալներ: Սա նշանակում է, որ մարդկանց համար ավելի ու ավելի դժվար կլինի կանխատեսել արհեստական ինտելեկտի գործունեության մեխանիզմները։
Google-ից հեռանալուց հետո NYT-ին տված հարցազրույցում նշվում է, որ Հինթոնը զղջում է իր կյանքի աշխատանքի համար, բայց մխիթարվում է արդարացումով. «Եթե ես չանեի դա, ուրիշը կաներ»: Ավելի ուշ MIT Technology Review-ի հետ զրույցում գիտնականը մանրամասնեց.
[NYT-ի լրագրող] փորձեց ստիպել ինձ ասել, որ ներողություն եմ խնդրում: Վերջում ասացի, որ միգուցե փոքր ափսոսանք ունեմ։ [Բայց] ես չեմ կարծում, որ սխալ որոշումներ եմ կայացրել իմ հետազոտության ընթացքում [նեյրոնային ցանցեր կառուցելու վերաբերյալ]: Իրականում [1970-80-ական թվականներին] անհնար էր կանխատեսել [AI-ի զարգացման ներկա փուլը]։ Մինչև ամենավերջին պահը ես կարծում էի, որ էկզիստենցիալ ճգնաժամը [ԱԲ-ի սպառնալիքների պատճառով] դեռ շատ հեռու է [մեզնից]: Ընդհանրապես, ես չեմ զղջում արածիս համար։
Comments