ក្រុមហ៊ុន Google បើកដំណើរការក្របខ័ណ្ឌដើម្បីធានាសុវត្ថិភាពAI

0

បច្ចេកវិទ្យា AI រីកចម្រើនយ៉ាងឆាប់រហ័ស ប៉ុន្តែ​ក៏​ជា​វិធី​ច្នៃប្រឌិត​ដែលអ្នកប្រើប្រាស់ប្រើវាដោយមានភ្ជាប់ជាមួយមេរោគ។ រដ្ឋាភិបាលជាច្រើនកំពុងព្យាយាមពន្លឿនផែនការគ្រប់គ្រងរបស់ពួកគេ ដើម្បីកាត់បន្ថយហានិភ័យនៃការប្រើប្រាស់ AI ខុស។

ទន្ទឹមនឹងនេះ អ្នកអភិវឌ្ឍន៍ AI ជំនាន់ថ្មីមួយចំនួនកំពុងរកមើលពីរបៀបដែលពួកគេអាចជួយធានានូវគំរូ និងសេវាកម្មរបស់ពួកគេ។ ក្រុមហ៊ុន Google ដែលជាម្ចាស់នៃការបង្កើត AI chatbot Bard និងក្រុមហ៊ុនមេនៃមន្ទីរពិសោធន៍ស្រាវជ្រាវ AI DeepMind ណែនាំកម្មវិធី Secure AI Framework (SAIF) របស់ខ្លួនកាលពីថ្ងៃទី៨ ខែមិថុនា ឆ្នាំ២០២៣។

លោក Royal Hansen អនុប្រធានផ្នែកវិស្វកម្មរបស់ក្រុមហ៊ុន Google សម្រាប់ភាពឯកជន សុវត្ថិភាព និងសុវត្ថិភាព និងលោក Phil Venables CISO នៃក្រុមការងារ Google Cloud សរសេរដោយមានខ្លឹមសារថា កម្មវិធី SAIF ត្រូវកំណត់ថាជា “ក្របខ័ណ្ឌគោលគំនិតដ៏ក្លាហាន និងការទទួលខុសត្រូវ ដើម្បីជួយសហការធានាសុវត្ថិភាពបច្ចេកវិទ្យា AI” ។

កិច្ចខិតខំប្រឹងប្រែងបង្កើតបទពិសោធន៍របស់ក្រុមហ៊ុន Google ក្នុងការបង្កើតគំរូសុវត្ថិភាពតាមអ៊ីនធឺរណិត ដែលមានដូចជាកម្រិតនៃខ្សែសង្វាក់ផ្គត់ផ្គង់សហការគ្នាសម្រាប់ក្របខ័ណ្ឌ Software Artifacts (SLSA) និង BeyondCorp នោះ  ស្ថាបត្យកម្មភាពជឿជាក់សូន្យរបស់វាត្រូវប្រើប្រាស់ដោយអង្គការជាច្រើន។ជាពិសេសកម្មវិធី SAIF គឺជា “ជំហានដំបូង” ដែលត្រូវរចនាឡើងដើម្បីជួយកាត់បន្ថយហានិភ័យជាក់លាក់ចំពោះប្រព័ន្ធ AI ដែលមានដូចជាការលួចគំរូ ការបំពុលទិន្នន័យនៃទិន្នន័យបណ្តុះបណ្តាល ការបញ្ចូលមេរោគព្យាបាទតាមរយៈការបញ្ចូលភ្លាមៗ និងការទាញយកព័ត៌មានសម្ងាត់នៅក្នុងទិន្នន័យបណ្តុះបណ្តាល។

កម្មវិធី SAIF ត្រូវបង្កើតឡើងជុំវិញគោលការណ៍ស្នូលចំនួនប្រាំមួយ៖

1-ពង្រីកមូលដ្ឋានសុវត្ថិភាពរឹងមាំដល់ប្រព័ន្ធអេកូ AI ក្នុងនោះមានទាំងទាំងការប្រើប្រាស់

ការការពារហេដ្ឋារចនាសម្ព័ន្ធដែលមានសុវត្ថិភាពតាមលំនាំដើម។ ជាឧទាហរណ៍ មានបច្ចេកទេសកាត់បន្ថយការចម្លង SQL។

2-បន្ថែមការស្រាវជ្រាវ និងការឆ្លើយតបដើម្បីយក AI ចូលទៅក្នុងពិភពនៃការគំរាមកំហែងដល់អង្គការនានា។ ត្រួតពិនិត្យធាតុចូល និងលទ្ធផលនៃប្រព័ន្ធ AI ជំនាន់ដើម ដើម្បីរកមើលភាពមិនប្រក្រតី និងប្រើប្រាស់ព័ត៌មានសម្ងាត់គំរាមកំហែងដើម្បីប្រមើលមើលការវាយប្រហារ។

3-ការពារដោយស្វ័យប្រវត្តិ ដើម្បីរក្សាល្បឿនជាមួយនឹងការគំរាមកំហែងដែលមានស្រាប់ និងការគំរាមកំហែងថ្មី។

4-ធ្វើសមកាលកម្មការគ្រប់គ្រងកម្រិតវេទិកាដើម្បីធានានូវសុវត្ថិភាពជាប់លាប់នៅទូទាំងស្ថាប័ន ដោយចាប់ផ្តើមជាមួយនឹង Vertex AI និង Security AI Workbench ដែលជាកម្មសិទ្ធិរបស់ក្រុមហ៊ុន Google និងក្រុម Perspective API ដែលជា API ប្រភពបើកចំហរឥតគិតថ្លៃ និងត្រូវបង្កើតឡើងដោយក្រុមបច្ចេកវិទ្យា Jigsaw និង Counter Abuse Technology របស់ ក្រុមហ៊ុន Google ដែលធ្លាប់ប្រើការរៀនលើម៉ាស៊ីនដើម្បីកំណត់អត្តសញ្ញាណមតិ “ពុល” លើអ៊ីនធឺរណិត។

5-សម្របយកការគ្រប់គ្រងដើម្បីកែតម្រូវការកាត់បន្ថយ និងបង្កើតរង្វិលជុំមតិកែលម្អត្រឡប់លឿនជាងមុនសម្រាប់ការដាក់ពង្រាយ AI រួមទាំងបច្ចេកទេសផ្សេងទៀតដែលមានដូចជា ការពង្រឹងការរៀនដោយផ្អែកលើឧប្បត្តិហេតុ និងមតិអ្នកប្រើប្រាស់ ការធ្វើបច្ចុប្បន្នភាពសំណុំទិន្នន័យបណ្តុះបណ្តាល គំរូកែតម្រូវដើម្បីឆ្លើយតបជាយុទ្ធសាស្ត្រចំពោះការវាយប្រហារ និងការធ្វើលំហាត់ប្រាណក្រុមរហ័ស។

6-បរិបទហានិភ័យនៃប្រព័ន្ធ AI នៅក្នុងដំណើរការអាជីវកម្ម ដោយធ្វើការវាយតម្លៃហានិភ័យពីទីបញ្ចប់ (end-to-end) ទាក់ទងទៅនឹងរបៀបដែលអង្គការនានានឹងដាក់ពង្រាយ AI

លោក Hansen និង Venables និយាយថា “យើងនឹងចេញផ្សាយឧបករណ៍ប្រភពបើកចំហជាច្រើនក្នុងពេលឆាប់ៗនេះ ដើម្បីជួយដាក់ធាតុ SAIF ទៅក្នុងការអនុវត្តសម្រាប់សុវត្ថិភាព AI”។ អ្នកទាំងពីរថែមទាំងប្តេជ្ញាថានឹងពង្រីកកម្មវិធីស្វែងរកកំហុសរបស់ក្រុមហ៊ុន Google ដើម្បីផ្តល់រង្វាន់ និងលើកទឹកចិត្តដល់ការស្រាវជ្រាវជុំវិញបញ្ហាសុវត្ថិភាព និងសុវត្ថិភាព AI។

នៅចុងក្រោយ លោក Hansen និង Venables និយាយថា ក្រុមហ៊ុន Google ប្តេជ្ញាជួយអភិវឌ្ឍស្តង់ដារអន្តរជាតិលើបញ្ហាសុវត្ថិភាព AI ដែលក្នុងនោះមានដូចជានៅវិទ្យាស្ថានជាតិស្តង់ដារនិងបច្ចេកវិទ្យារបស់សហរដ្ឋអាមេរិក (NIST) AI Risk Management Framework និងលើគម្រោង Cybersecurity Framework និងលើប្រព័ន្ធ ISO/IEC 42001 AI Management System និងលើស្តង់ដារប្រព័ន្ធគ្រប់គ្រងសុវត្ថិភាព ISO / IEC 27001 ៕

ប្រភព infosecurity ចុះផ្សាយឡើងវិញថ្ងៃទី១៣ ខែមិថុនា ឆ្នាំ២០២៣

LEAVE A REPLY

Please enter your comment!
Please enter your name here