គំរូ Framework ថ្មី ត្រូវបាន​បញ្ចេញ​ដើម្បី​ការពារ​ប្រព័ន្ធ Machine Learning System

0

ក្រុមហ៊ុន Microsoft សហការ​ជាមួយ MITRE, IBM, NVIDIA, and Bosch បានចេញ​គំរូ (Framework) ថ្មី​ដែល​ជួយ​ដល់​ការវិភាគ​ស្វែងរក​ដើម្បី​សុវត្ថិភាព ឆ្លើយតប និង​បញ្ឈប់​ការប៉ះពាល់​ដែល​បណ្តាល​មក ពី​ការវាយប្រហារ​ទៅលើ​ប្រព័ន្ធ​រៀនសូត្រ​ម៉ាស៊ីន (ML)។

វា​ត្រូវបាន​ហៅថា Adversarial ML Threat Matrix ការចាប់ផ្តើម​នេះ​ដើម្បី​រៀបចំ​បច្ចេកវិទ្យា​ខុសគ្នាដែល​ប្រើ​ដោយ​ហេ​គ​ឃ័​រ​សម្រាប់​វាយប្រហារ ML systems។

គ្រាន់តែ AI and ML ត្រូវបាន​ដាក់ពង្រាយ​នៅក្នុង​កម្មវិធី ហេ​គ​ឃ័​រ​មិនអាច​ប្រើ​បច្ចេកទេស​តែមួយ​ទៅ បង្កើន​ឥទ្ធិពល​នៃ​មេរោគ​របស់ខ្លួន​បានទេ ប៉ុន្តែ​អាច​ប្រើ​គុណសម្បត្តិ​វា​ធ្វើឱ្យ​ម៉ាស៊ីន​រៀនសូត្រ​ខុស (fool machine learning models) ជាមួយនឹង​ទិន្នន័យ​មិន​ត្រឹមត្រូវ ដែលជា​មូលហេតុ​នាំឱ្យ​ប្រព័ន្ធ​សម្រេចចិត្ត ខុស និង​ប៉ះពាល់​ដល់​ស្ថេរភាព និង​សុវត្ថិភាព​របស់​កម្មវិធី AI។

ការពិតទៅ អ្នកស្រាវជ្រាវ ESET កាលពី​ឆ្នាំមុន​បាន​រកឃើញ Emotet ដែលជា​មេរោគ​ផ្អែកលើ​អ៊ី​ម៉ែ​ល (email-based malware) នៅ​ពីក្រោយ​យុទ្ធ​ការបោកប្រាស់ botnet-driven និង​ការវាយប្រហារ​មេរោគ ransomware ត្រូវបាន​កំពុងតែ​ប្រើ ML ដើម្បី​ជំរុញ​គោលដៅ​របស់ខ្លួន។ កាលពី​ដើមខែ​នេះ Microsoft បាន​ព្រមាន​ពី​មេរោគ Android ransomware strain ថ្មី​ដែល​រួមមាន​គំរូ​រៀន​ម៉ាស៊ីន (machine leaning model) ដែល មិនទាន់បាន​ដាក់បញ្ចូល​ជាមួយ​មេរោគ malware ទេ តែ​អាច​ត្រូវបាន​ប្រើ​ដើម្បី​ទាញយក អត្ថប្រយោជន៍​ពី​រូបភាព​នៅក្នុង​អេក្រង់​ទូរ​សព្ទ័​ដើម្បី​ចាប់ជំរិត​ដោយ​មិនចាំបាច់​កែប្រែ។

ក្រៅពីនេះ អ្នកស្រាវជ្រាវ​បាន​រកឃើញថា​អ្វីដែល​ហៅថា​ការវាយប្រហារ​ត្រលប់​នោះ (model-inversion attacks) នៅក្នុង​ដំណើរការ​គំរូ (model) ត្រូវបាន​ប្រើ​ដើម្បី​បង្កប់​ព័ត៌មាន​ពី​ទិន្នន័យ​ដែល​ត្រូវ​រៀន​នោះ។ យោងតាម​របាយការណ៍ Gartner ដកស្រង់​ដោយ Microsoft, ៣០% នៃ​ការវាយប្រហារ​លើ AI អាច​នឹង កើនឡើង​នៅ​ឆ្នាំ២០២២ ត្រូវបាន​មើលឃើញថា​ដើម្បី​ទាញយក​ប្រយោជន៍​ពី​ការបំពុល​ព័ត៌មាន, លួច model, ឬ​គំរូ​ប្រឆាំង (adversarial samples) ដើម្បី​វាយប្រហារ​លើ​ប្រព័ន្ធ​រៀនសូត្រ​របស់​ម៉ាស៊ីន (machine learning-power systems)។

Adversarial ML Threat Matrix សង្ឃឹមថា​អាច​ដោះស្រាយ​បញ្ហា​ដោយ​ប្រឆាំងនឹង​ទិន្នន័យ​នៃ​ការ ផលិត​អាវុធ​ជាមួយនឹង​ការរៀបចំ​អាកប្បកិរិយា​សត្រូវ និង​ការ​គំរាម ដែល Microsoft and MITRE បាន អះអាងថា​មាន​ប្រសិទ្ធិភាព​ប្រឆាំងនឹង​ប្រព័ន្ធ ML systems។

គំនិត​គឺថា​ក្រុមហ៊ុន​អាច​ប្រើ Adversarial ML Threat Matrix ដើម្បី​ធ្វើតេស្ត​សាកល្បង​សមត្ថភាព​របស់ AI model របស់​ពួកគេ​ដោយ​ធ្វើតាម​សេណា​រី​យ៉ូ​នៃ​ការវាយប្រហារ​ជាក់ស្តែង​ដោយ​ប្រើ​បញ្ជី​បច្ចេកទេស ដើម្បី​ចាប់ផ្តើម​ដំណើរការ ប្រតិបត្តិការ unsafe ML models, បំពុល training data, និង​ទាញយក ទិន្នន័យសំខាន់ៗតាមរយៈ​គំរូ​វាយប្រហារ​លួច​នេះ (model stealing attacks)។

ប្រែ​សម្រួល​ដោយ៖ កញ្ញា

LEAVE A REPLY

Please enter your comment!
Please enter your name here