ធូល AI ថ្មី អនុញ្ញាតឱ្យឧក្រឹដ្ឋជនវាយប្រហារតាមអុីនធឺណិតកាន់តែងាយ

0

បញ្ញាសប្បនិម្មិត AI កំពុងតែក្លាយជាទីពេញនិយមនាពេលបច្ចុប្បន្ន ហើយវាក៏គ្មានអ្វីភ្ញាក់ផ្អើលដែរថាបច្ចេកវិទ្យានេះត្រូវកេងចំណេញដោយហេគឃ័រប្រើជាមធ្យោបាយសម្រាប់ប្រព្រឹត្តឧក្រឹដ្ឋកម្ម។យោងតាមលទ្ធផលចេញពីិក្រុមហ៊ុន SlashNext ឱ្យដឹងថា tool ឧក្រឹដ្ឋកម្មសាយប័រ generative AI ថ្មីឈ្មោះ WormGPT ត្រូវផ្សព្វផ្សាយនៅលើវេទិកាងងឹតប្រើជាមធ្យោបាយសម្រាប់ហេគឃ័រដាក់ចេញនូវការបន្លំ និងវាយប្រហារអុីម៉ែលអាជីវកម្ម (business email compromise (BEC))។

អ្នកស្រាវជ្រាវថ្លែងថា tool AI ថ្មីនេះ បង្ហាញខ្លួនវាថាជាហេគឃ័រម៉ូឌែល GPT ដែលត្រូវបង្កើតឡើងសម្រាប់សកម្មភាពហេគជាក់លាក់។ ឧក្រឹដ្ឋជនអាចប្រើបច្ចេកវិទ្យានេះដើម្បីបង្កើតអុីម៉ែលក្លែងបន្លំដោយស្វ័យប្រវត្តិផ្ទាល់ខ្លួនផ្ញើទៅកាន់ជនរងគ្រោះ ដូច្នេះវាមានឱកាសជោគជ័យច្រើន។ អ្នកបង្កើតកម្មវិធីពណ៌នាថា វាជាសត្រូវដ៏ធំនៃ ChatGPT ដែលផ្តល់ឱកាសឱ្យអ្នកធ្វើអំពើខុសច្បាប់គ្រប់ប្រភេទ។ នៅក្នុងដៃរបស់ហេគឃ័រ tools ដូចជាមេរោគ WormGPT អាចជាអាវុធសម្រាប់ OpenAI ChatGPT និង Google Bard តាមរយៈការបង្កើតអុីម៉ែលបញ្ឆោត phishing និងបង្កើតកូដអាក្រក់។ ក្រុមហ៊ុន Check Point ថ្លែងនៅក្នុងរបាយការណ៍សប្តាហ៍នេះថា ការរឹតបន្តឹងការបំពានរបស់ Bard នៅក្នុងដែនសន្តិសុខតាមអុីនធឺណិតនោះ វានៅមានកម្រិតទាប បើប្រៀបទៅនឹង ChatGPT។ ជាលទ្ធផល វាងាយនឹងបង្កើត content អាក្រក់តាមរយៈសមត្ថភាពបង្កើតរបស់ Bard។

នៅដើមខែកុម្ភៈ ក្រុមហ៊ុនសន្តិសុខសាយប័រអុីស្រាអ៊ែលបង្ហាញពីរបៀបដែលឧក្រឹដ្ឋជនកំពុងតែធ្វើការជុំវិញការរឹតបន្តឹងរបស់ ChatGPT ដោយកេងចំណេញពី API របស់វា ទាំងមិនរាប់ពីការជួញដូរគណនីដែលត្រូវលួច និងលក់កម្មវិធី brute-force ដើម្បីហេគចូលគណនី ChatGPT ដោយប្រើបញ្ជីឈ្មោះអាសយដ្ឋាន និងលេខសម្ងាត់ដ៏ច្រើនសន្ធឹកសន្ធាប់។ ការពិតគឺថា WormGPT ដំណើរការគំរាមកំហែងគ្មានព្រំដែន ដែលបង្កឡើងដោយ generative AI សូម្បីតែការអនុញ្ញាតឱ្យឧក្រឹដ្ឋជនថ្មីចាប់ផ្តើមការវាយប្រហារក៏រហ័សដែរ។ ការធ្វើឱ្យបញ្ហាកាន់តែអាក្រក់ទៅនោះ គឺហេគឃ័រកំពុងតែផ្សព្វផ្សាយ “jailbreaks” សម្រាប់ ChatGPT ដែលជាអ្នកជំនាញរំលឹកវិស្វកម្មសង្គមនិងដាក់បញ្ចូល ដែលត្រូវបង្កើតឡើងដើម្បីរៀបចំ tool នៅក្នុងការបង្កើតលទ្ធផល (output) ដែលអាចពាក់ព័ន្ធនឹងការបើកចំហព័ត៌មានសំខាន់, ការបង្កើត content មិនសមរម្យ និងប្រតិបត្តិការកូដគ្រោះថ្នាក់។

អ្នកស្រាវជ្រាវបន្ថែមថា generative AI អាចបង្កើតអុីម៉ែលជាមួយនឹងវេយ្យាករណ៍ដែលគ្មានកំហុស ដែលធ្វើឱ្យពួកវាមើលទៅដូចជាស្របច្បាប់ និងកាត់បន្ថយនូវការសង្ស័យ។ ការប្រើ generative AI អាចធ្វើការដោយសេរីលើការវាយប្រហារ BEC។ សូម្បីហេគឃ័រដែលជំនាញនៅមានកម្រិតក៏អាចប្រើបច្ចេកវិទ្យានេះធ្វើជាឧបករណ៍ចូលប្រើយ៉ាងទូលំទូលាយប្រព្រឹត្តបទល្មើសតាមអុីនធឺណិត។ អ្នកស្រាវជ្រាវមកពី Mithril Security បញ្ជាក់ថា open-source AI model ដែលគេស្គាល់ថាជា GPT-J-6B អាចផ្សាយព័ត៌មានមិនពិត និងអាប់ឡូតវាទៅកាន់ឃ្លាំង (repository) សាធារណៈដូចជា Hugging Face ដែលអាចរួមបញ្ចូលជាមួយកម្មវិធី (applications) ផ្សេង ដែលគេហៅវាថាជាការបំពុលខ្សែច្រវាក់ផ្គត់ផ្គង់ LLM (large language model)។ ជោគជ័យនៃបច្ចេកវិទ្យាឈ្មោះ PoisonGPT ជាឃ្លាំងផ្តល់នូវតម្រូវការដែលគម្រូអនុវត្តន៍ត្រូវអាប់ឡូតដោយប្រើឈ្មោះដែលបន្លំជាក្រុមហ៊ុនល្បី នៅក្នុងករណីនេះ មានការបន្លំជាស្ថាប័ន EleutherAI ដែលជាក្រុមហ៊ុននៅពីក្រោយ GPT-J៕

LEAVE A REPLY

Please enter your comment!
Please enter your name here