Өскен өңір Osken-onir.kz ақпараттық агенттігі
» » ChatGPT қауіпсіз бе?

ChatGPT қауіпсіз бе?



Осы жылдың қаңтарында қолданысқа еніп, тұтас әлемге тез таралған жаңа технологиялық өнім ChatGPT (Generative Pre-Trained Transformer) екі-ақ айдың ішінде 100 млн-нан аса пайдаланушыны жинады. Осылайша, осы күнге дейінгі ең жылдам таралған қосымшаның бірі атанды. OpenAI-дың жетілдірілген чат-боты халықтың жасанды интеллектіге деген қызығушылығын арттырғаны сонша, ол туралы білгісі келетін, тіпті оны пайдаланып көргісі келетіндердің саны күн сайын артып барады. Бірақ жаңа технологиялық өнімнің қауіпсіздік тәуекелдері барын байыпты түрде ойлағандар некен-саяқ.

Ең алдымен, біз ChatGPT-тің қауіп­сіздік қатерлері мен оны туын­дататын мәселелер ту­ра­лы айт­қымыз келеді. ChatGPT бас­қа чат-боттар негізіндегі тех­но­­ло­гия­ға ұқсас болуы мүмкін. Бірақ ол өз алдына ерекше өнім болып қа­ла бермек. Егер сіз оны жеке кө­мекші ретінде пайдаланғыңыз кел­се, септігі мол, пайдасы орасан. Ал қауіп-қатер субъектілері бар екенін ойласаңыз, көңілге алаң кіреді. Бір өкінерлігі, «дайын асқа тік қасық» болғысы келетін киберқылмыскерлер ChatGPT қол­дан­басын зиянды бағдарлама жа­зу, алаяқтық веб-сайттарды құру, фи­шингтік электронды хаттарды жасау, жалған жаңалықтар даярлау секілді жымысқы әрекеттер үшін пайдалана алады екен. Осы ретте ChatGPT-тің пайдадан гөрі киберқауіпсіздік қаупі басым бо­луы мүмкін. Сол үшін қазіргі уақыт­та өмірге келген әрбір жаңа тех­нологияның артындағы залалды тұстарын да сана-сезімімен салмақтау, таразылау тұты­ну­шы­ның өзіне байланысты.

Сонымен қатар ChatGPT-тің өзінде белгілі бір реттелме­ген осал­дықтар бар деген үл­кен алаң­даушылық туындап отыр. Мысалы, осы жылдың наурыз ­айын­да кей­бір пайдаланушылардың басқа­лар­дың әңгімелерінің тақырып­­та­рын, маз­мұндарын көре алаты­ны туралы ақпараттар тарады. Сол кезде The Verge ақпарат сайты хабарлағандай, OpenAI бас ди­ректоры Сэм Альтман аталған мә­селеге дереккөздердегі ал­ғашқы қа­телік себеп болғанын түсіндір­ді. Бұл бізге нені меңзейді? Бұл өз әлеуеті бойынша деректердің көп мөлшерін жинайтын ChatGPT-пен бөлісетін де­рек­терді шектеудің қаншалықты ма­ңызды екенін көр­се­теді. Алпауыт тех­но­логиялық ұйым Samsung мұның сы­­рын көп­теген қиындықтан кейін таразылай ал­ды. Чат-ботты көмекші ретінде пай­даланған бір топ қызметкер оған құпия ақпаратты абайсызда таратып жібергені де анықталды.

Ал осындайда «ChatGPT сіздің жеке өміріңізге қауіп төндіре ме?» деген заңды сұрақ туындайды. Қауіпсіздік пен құпиялылық бір нәрсе емес. Бірақ олар бір-бірі­мен тығыз байланысты әрі жиі қа­рым-қатынаста. Егер ChatGPT әлеу­меттік қауіпсіздікке залалды болса, онда ол жеке тұлғаның өміріне де қауіп төндіреді деген сөз.

ChatGPT өзінің ауқымды де­рек­қо­рын жасау үшін біз күнделік­ті тұрмыста пай­даланып жүрген интернеттегі мил­лиардтаған ақ­парат лезде жойылған. Бұл де­рек­қор үздіксіз кеңею үстінде. Өйт­кені ChatGPT пайдаланушылар бө­лісетін кез келген ақпаратты өзіне толық сақтап алады. АҚШ-та орналасқан коммерция­­лық емес Common Sense ұйымы ChatGPT-ке ­61 пайыздық құпиялылықты ба­ға­лау ұпа­йын берді. Чат-бот жеке сәйкестен­дірі­ле­тін ақпаратты және басқа да құпия деректерді жинайтынын атап өтті. Бұл деректердің көпшілігі сақталады немесе белгілі бір үшінші тараптармен бөлісіледі деген сөз.

Қысқасы, ChatGPT-ты пайда­лану кезінде абай болу керек. Әсі­ресе, оны жұмыс үшін неме­се құпия ақпа­рат­ты өңдеу үшін пай­далансаңыз, жеті рет өл­шеп, бір рет кескен абзал. Бы­лай­­­­ша айтқанда, сіз күнделікті тұр­мыс­та көп­шіліктің білгісі кел­мей­тін ақпараттарын аталған құрылғымен бөліспеуіңіз керек. Уақыт өте келе, чат-боттар іздеу жүйелерінің, дыбыстық жазбалар мен әлеуметтік желілердің ажырамас бөлі­гіне айналады. Міне, осындай нақты көз­қарасты Malwarebytes киберқауіпсіздік қо­сымшасы білдірді. Тіпті бұл чат-боттар болашақта денсаулық сақ­тау мен білім беруден, қаржы мен ойын-сауыққа дейінгі әртүрлі салаларда да рөл атқаратыны айтылып жүр.

Бұл осыған дейін біз зерттеп, зерделеген қауіпсіздік шараларын түбе­гейлі өзгертеді. Бірақ Malwarebytes атап өт­кендей, ChatGPT және оған ұқсас құрал­дар­ды киберқауіпсіздік маман­да­ры да пайдалана алады екен. Мы­са­лы, бағ­дарламалық құралдағы қателерді немесе желі әрекетіндегі «күдікті үлгілерді» іздеу үшін бұл таптырмас технологиялық өнім болмақ. Осы жағдайларды білген соң, аталған өнім туралы алуан түрлі ақпаратты оқыған соң, бізге ChatGPT 5 немесе 10 жылдан кейін не істей алады деген сауал тууы мүмкін. Өкініштісі, біз тек болжам жасай аламыз. Бірақ бір анық нәрсе – жасанды интеллектілердің ешқайда кетпейтіні, оның арамызда, біз­дің күнделікті тіршілікте өмір сүретіні.

Жаңа өнім, жаңа технология­лардың жемісі аталатын осындай чат-боттар өмі­рімізге араласқан са­йын, барлық сала олар­ды реттеу­ге және жауапкершілікпен пай­­да­лануды үйренуге мәжбүр бо­ла­ды. Бұған жасанды интеллект қа­лып­тастырып жатқан ки­бер­қауіп­сіздік саласы да кіреді. Жа­сан­ды интеллектімен байланыс­ты қауіп­сіздік тәуекелдері туралы сақтықты күшейту маңызды болмақ. Қазір қоғам арасында ChatGPT-ті мақтап, оның насихатын жасап жүргендер де, оның пайдасынан гөрі зияны көп екенін ашық айтқандар да баршылық. Жасанды интел­лектілердің чат-боттары мінсіз емес, бірақ олардан мүлдем аулақ болудың да қажеті шамалы.

Келесі мәселе ChatGPT сіздің жеке ақпаратыңызды ұрлай ма дегенге саяды. ChatGPT туралы алдыңғы қатардағы қауіпсіздік мәселелерінің көпшілігі болжам­дар мен тексерілмеген есептерден туындайды. Кейде жаңа техно­ло­гиялық өнімдерді пайдаланушыларда бейтаныс құралдар­­дың құпиялылығы мен қауіпсіздігі ту­ралы ағат түсініктердің бо­луы – та­биғи жағдай. Аталған платфор­маны Microsoft және Илон Маск сияқ­ты технологиялық инвесторлар қаржы­ландыратын беделді Жасанды интеллект зерттеу зертханасы OpenAI іске қосты. ChatGPT ең қысқа ақпаратты сұрайды. Сіз тек атыңыз бен электрондық пошта мекенжайыңыз арқылы тіркеле ала­сыз. Дегенмен OpenAI тек зерттеу мақса­тында конволарды бақылай алады. Олар­ды үшінші тұлғаларға тарату немесе сату оның жеке пайдалану шарттарын бұзады.

BBC-дің мәліметі бойынша, OpenAI ChaGPT-ке 300 млрд ақ­па­рат жинап берді. Ол әлеуметтік медиа платформалары, бизнес веб-сайттары және түсі­ніктеме бө­лімдері сияқты жалпыға қол­же­тімді веб-сайттардан деректерді жинайды. Қажетсіз кезде интернет­тен шығып, деректеріңізді өшір­месеңіз, ChatGPT сіздің ақпара­тыңызды алуы мүмкін. ChatGPT қауіпті болмаса да, плат­форманың әлі де қауіпсіздікке жол ашуы әб­ден ықтимал. Алаяқтар әртүрлі ки­бершабуылдарды орындау үшін шектеулерді айналып өте алады.

Электронды хаттарды жазуға бірнеше сағат жұмсаудың орнына, интернет алаяқ­­тары ChatGPT-ті пайдаланады. Бұл – жылдам әрі оңай тәсіл. Аталған құ­рыл­ғы бірнеше минут ішінде жүздеген үйле­­сімді, сенімді электрондық хат­тарды жа­сай алады. Сол үшін ақпаратты жария етуден аулақ болыңыз. Заңды компаниялар мен ұйымдар кездейсоқ электрондық пошта арқылы құпия кілтсөз сұ­рай­тынын ескеріңіз.

Тәжірибелі кибер-қыл­мыс­керлер қазірдің өзінде ChatGPT-ті өз іс-әрекет­теріне пай­да­лана бастады. Олар аталған чат-ботты ұрланған деректердің ауқым­ды көлеміне ыңғайлап, плат­фор­ма­ны интернет алаяқтығы үшін жеке дерекқорға айналдыра алады екен. Көптеген адам ChatGPT қолданбасын әлі толық зерт­теген жоқ. Ал хакерлер жұртты ша­тас­тыратын ақпараттарды, элек­трондық хаттарды және хабар­лан­дыруларды тарату арқылы өз мақ­сатына жұмыс істеуі әбден мүмкін.

Бәріміз де осы қоғамның мү­ше­сіміз, сол үшін жаңа техно­логия­лық өнімдерден еш уақытта бас тарта алмаймыз. Бірақ мұндағы ең басты мәселе – сақтық шара­лары. Сол үшін егер қажет бол­ған жағ­дайда ChatGPT-ті қауіп­сіз және жауап­кершілікпен пайда­ла­ныңыз. ChatGPT өздігінен қа­уіп төндірмейді. Жүйенің осал­дық­тары бар екені рас. Алайда ол дерек­­теріңізге зиян келтіруі, кел­тір­меуі де мүмкін. Жасанды интеллект технологияларынан қорқа беруден гөрі, алаяқтар оларды әлеуметтік инженерия тактикасына қалай енгізетінін зерттеңіз. Осылайша, сіз өзіңізді қауіптерден қорғай аласыз.
04 мамыр 2023 ж. 222 0

PDF нұсқалар мұрағаты

№94 (9258)

26 қараша 2024 ж.

№93 (9257)

23 қараша 2024 ж.

№92 (9256)

20 қараша 2024 ж.

Жаңалықтар мұрағаты

«    Қараша 2024    »
ДсСсСрБсЖмСбЖс
 123
45678910
11121314151617
18192021222324
252627282930