การดูแลและประเมินความปลอดภัยของ AI

16/04/2024

ความปลอดภัยของระบบ AI: ทิศทางในการป้องกันการแฮ็ก

     การพัฒนาและการใช้งานระบบปัญญาประดิษฐ์ (Artificial Intelligence: AI) เพิ่มขึ้นอย่างรวดเร็วในช่วงหลายปีที่ผ่านมา ไม่ว่าจะเป็นการใช้งานในภาคเอกชนหรือภาครัฐ โดยมีการนำไปใช้ในหลายด้าน เช่น การแก้ไขปัญหาภายในองค์กร การพัฒนาเทคโนโลยีทางการแพทย์ และการประยุกต์ใช้ระบบอัตโนมัติทั้งในงานวิจัยและธุรกิจ กล่าวคือ AI เป็นระบบที่มีประสิทธิภาพและมีประโยชน์มากมาย แต่ก็มีความเสี่ยงที่เกี่ยวข้องกับความปลอดภัยที่เพิ่มมากขึ้นเช่นกัน ดังนั้น การป้องกันการแฮ็กในระบบ AI เป็นเรื่องที่มีความสำคัญอย่างยิ่ง

c2_01

ปัญหาความปลอดภัยที่เกี่ยวข้องกับ AI

การโจมตีแบบ Adversarial: นักวิจัยทำการค้นพบว่าระบบ AI สามารถถูกทำให้ผิดพลาดได้โดยการเพิ่มสิ่งที่ไม่สัมพันธ์หรือการแก้ไขรูปภาพและข้อมูลอื่นๆ อย่างเสียหายเพียงเล็กน้อย ซึ่งสามารถใช้ในการโจมตีได้ โดยที่มนุษย์ไม่สามารถระบุได้

หมายเหตุ :
การโจมตี AI แบบ Adversarial เป็นเทคนิคที่ผู้โจมตีใช้เพื่อหลอก AI ให้ทำงานผิดพลาดหรือให้ผลลัพธ์ที่ไม่ถูกต้อง โดยใช้เทคนิคต่าง ๆ ดังนี้:

Data Poisoning: ผู้โจมตีอาจวางแผนปั่นป่วนข้อมูลที่ใช้ในการเทรนโมเดล AI ให้โมเดลทำงานผิดพลาดหรือใช้การไม่ได้ การโจมตีแบบนี้เรียกว่า Data Poisoning ซึ่งสามารถเป็นการโจมตี Availability ของโมเดล (ทำให้โมเดลใช้งานไม่ได้) หรือ Integrity ของโมเดล (สร้าง Backdoor ในระบบ)

Generative Adversarial Networks (GAN): GAN เป็นเทคนิคที่ใช้โมเดล 2 ตัว คือตัวสร้างและตัวประเมิน ในการพัฒนา AI โดย GAN สามารถใช้ในการโจมตีหรือสร้าง Malware ที่หลีกเลี่ยงการตรวจสอบ

  • การป่วนอัลกอริทึม: การป่วนให้ AI ตัดสินใจผิดพลาด โดยการโจมตีนี้สามารถทำให้ผลลัพธ์คลาดเคลื่อนจากสิ่งที่ควรจะเป็นได้
  • การใช้งานที่ไม่เหมาะสม: การสร้างและใช้งานระบบ AI โดยไม่มีการตรวจสอบและทดสอบความปลอดภัยอาจสร้างช่องโหว่ที่มีความเสี่ยงสูงในการถูกโจมตีและการเข้าถึงข้อมูลที่อาจเป็นอันตราย
  • การใช้งานที่ไม่มีความโปร่งใส: การใช้งานระบบ AI ในบางกรณีอาจมีการใช้งานที่ไม่โปร่งใสและไม่มีการติดตามที่เพียงพอ ซึ่งอาจสร้างความเสี่ยงต่อความปลอดภัยและความเชื่อถือของข้อมูล


c2_02

 

การป้องกันการแฮกในระบบ AI

     การพัฒนาแบบ Secure by Design (SbD) คือวิธีการที่ให้ความสำคัญกับความปลอดภัยตั้งแต่ขั้นตอนการออกแบบ และมีเป้าหมายในการสร้างระบบที่มีความปลอดภัยอย่างแข็งแกร่ง โดยมีหลักการดังนี้:

  • Economy of Mechanism: การออกแบบระบบให้เรียบง่ายและมีขนาดเล็กที่สุดเพื่อลดความซับซ้อนและช่องโหว่ที่อาจเกิดขึ้น
  • Fail-Safe Defaults: การตั้งค่าเริ่มต้นให้ปลอดภัย โดยไม่ต้องการการปรับแต่งเพิ่มเติม
  • Complete Mediation: การตรวจสอบสิทธิ์การเข้าถึงทุกครั้ง ไม่ให้มีช่องโหว่ในการควบคุม
  • Least Privilege: การให้สิทธิ์การเข้าถึงให้เพียงพอต่อการทำงานที่ต้องการ และไม่มากเกินไป
  • Defense in Depth: การใช้วิธีการป้องกันที่มีหลายชั้น เพื่อลดความเสี่ยงในการโจมตีและเพิ่มความน่าเชื่อถือให้กับระบบหรือโครงสร้างต่างๆ ซึ่งมีความสำคัญในการป้องกันการบุกรุกและการละเมิดความปลอดภัย
  • Open Design: การออกแบบระบบหรือโปรแกรมที่เปิดเผยข้อมูลและโครงสร้างของระบบให้โปร่งใสแก่สาธารณะ โดยไม่มีการเก็บรักษาความลับ ซึ่งมีความสำคัญในการสร้างความเชื่อถือและความโปร่งใสให้แก่ผู้ใช้บริการ
  • Separation of Privilege: การแยกสิทธิ์การเข้าถึงให้แต่ละส่วนของระบบ
  • Least Common Mechanism: การใช้ช่องทางร่วมกันให้น้อยที่สุด
  • Psychological Acceptability: การออกแบบให้เข้าใจและใช้งานได้ง่าย

     การพัฒนาแบบ Secure by Design ช่วยให้ระบบมีความปลอดภัยตั้งแต่ต้น และเป็นส่วนสำคัญในการป้องกันการโจมตีและการละเมิดความปลอดภัย

 

การใช้เทคโนโลยีการตรวจสอบแบบอัตโนมัติ: การใช้เทคโนโลยีการตรวจสอบแบบอัตโนมัติ เช่นการทำการตรวจสอบโค้ด (code review) และการทำการทดสอบระบบ (system testing) สามารถช่วยลดความเสี่ยงในการมีช่องโหว่ของระบบ AI

การสร้างและการใช้งานข้อมูลที่ปลอดภัย: การใช้เทคโนโลยีการเข้ารหัส (encryption) และการใช้ระบบการรับรองตัวตนที่เข้มงวด (2-factor authentication) เพื่อป้องกันการเข้าถึงข้อมูลที่ไม่มีอำนาจ

การฝึกอบรมเจ้าหน้าที่และผู้ใช้งาน: การฝึกอบรมเจ้าหน้าที่และผู้ใช้งานให้เข้าใจถึงความสำคัญของความปลอดภัยและวิธีการป้องกันการโจมตี


ตัวอย่างการป้องกันการแฮกในระบบ AI

     การป้องกันการแฮกในระบบ AI เป็นเรื่องที่ต้องให้ความสำคัญอย่างยิ่งในการพัฒนาและการใช้งาน โดยการนำหลักการป้องกันความปลอดภัยมาบริหารจัดการในทุกขั้นตอนของกระบวนการนั้นจะช่วยลดความเสี่ยงในการถูกโจมตีและการสูญเสียข้อมูลอันมีค่าได้ เพื่อให้ระบบ AI สามารถใช้งานได้อย่างมั่นคงและเชื่อถือได้อย่างมีประสิทธิภาพ

1. การใช้งานวิธีการป้องกันแบบเลเยอร์ (Layered Defense): การใช้วิธีการป้องกันแบบเลเยอร์เป็นกลไกที่มีประสิทธิภาพในการป้องกันการแฮกในระบบ AI โดยการใช้หลายชั้นของมาตรการป้องกันเพื่อลดความเสี่ยงในการโจมตี เช่น การใช้งานระบบ Firewall และ Intrusion Detection System (IDS) เพื่อตรวจจับและป้องกันการเข้าถึงที่ไม่ได้รับอนุญาต รวมถึงการใช้งานการตรวจสอบเชิงพื้นฐาน (Basic Authentication) เพื่อให้เข้าถึงระบบได้แต่เพียงผู้ที่มีสิทธิ์เท่านั้น

2. การพัฒนาและการใช้งานระบบ AI ที่มีความโปร่งใส: การพัฒนาระบบ AI ที่มีความโปร่งใสจะช่วยให้มีการตรวจสอบและติดตามการใช้งานได้ง่ายขึ้น ทำให้สามารถตรวจสอบได้ว่ามีการเข้าถึงข้อมูลหรือการใช้งานระบบโดยไม่เหมาะสมหรือไม่ และสามารถดำเนินการแก้ไขได้อย่างรวดเร็ว เช่นการใช้งานเทคโนโลยีบล็อกเชน (Blockchain) เป็นเทคโนโลยีที่มีความสำคัญในโลกดิจิทัลเพื่อการเก็บข้อมูลและการทำธุรกรรมออนไลน์อย่างปลอดภัยและโปร่งใส บล็อกเชนถูกสร้างขึ้นโดยการเก็บข้อมูลในรูปแบบบล็อก โดยทุกบล็อกมีข้อมูลการทำธุรกรรมและลิงก์ไปยังบล็อกก่อนหน้า ทำให้ข้อมูลไม่สามารถแก้ไขหรือลบได้โดยง่าย

การใช้เทคโนโลยีและมาตรการป้องกันการแฮกที่เหมาะสมและมีประสิทธิภาพจะช่วยให้ระบบ AI มีความปลอดภัยอย่างมั่นคงและเชื่อถือได้อย่างแท้จริง นอกจากนี้การอัพเดตและการตรวจสอบระบบเพื่อป้องกันการแฮกควรเป็นกิจกรรมที่ต้องทำอย่างสม่ำเสมอเพื่อรักษาความปลอดภัยของระบบให้มีความเชื่อถือได้อย่างต่อเนื่อง

c2_03


วิธีการและทักษะที่เกี่ยวข้องกับการป้องกันความเสี่ยงในระบบ AI

  1. เข้าใจทางเทคนิคของระบบ AI: การทราบเกี่ยวกับวิธีการทำงานของระบบ AI และเทคโนโลยีที่ใช้ เช่น การเรียนรู้เชิงลึก (Deep Learning) และการประมวลผลภาพด้วยคอมพิวเตอร์ (Computer Vision) เป็นสิ่งสำคัญเพื่อให้สามารถตรวจสอบและตระหนักถึงความเสี่ยงที่เกี่ยวข้อง
  2. การเข้าใจเกี่ยวกับการโจมตีแบบ Adversarial: ทราบถึงวิธีการโจมตีแบบ Adversarial และความเสี่ยงที่เกี่ยวข้อง ซึ่งสามารถช่วยในการพัฒนาเครื่องมือและเทคโนโลยีที่ใช้ในการตรวจจับและป้องกันการโจมตีนี้
  3. ทักษะในการวิเคราะห์ข้อมูล: การสามารถวิเคราะห์และตรวจสอบข้อมูลอย่างเป็นระบบเป็นสิ่งสำคัญ เพื่อค้นหาและระบุความผิดปกติหรือความเสี่ยงที่อาจเกิดขึ้นในระบบ AI
  4. ทักษะในการทดสอบและการตรวจสอบระบบ: ทักษะในการสร้างและดำเนินการทดสอบระบบ AI เพื่อค้นหาช่องโหว่และปัญหาที่เป็นไปได้ รวมถึงการทดสอบแบบเจาะจงเพื่อตรวจสอบความเสี่ยงที่อาจเกิดขึ้น
  5. ทักษะในการพัฒนาแบบ Secure by Design: การทราบถึงหลักการในการพัฒนาระบบที่มีความปลอดภัยมาตั้งแต่ขั้นตอนแรกของการออกแบบ และการใช้เครื่องมือและเทคโนโลยีที่ช่วยในการสร้างระบบ AI ที่มีความปลอดภัย
  6. ทักษะในการประเมินความเสี่ยง: การสามารถประเมินความเสี่ยงที่เกี่ยวข้องกับระบบ AI และทำการตรวจสอบความเสี่ยงอย่างเป็นระบบเพื่อวางแผนการป้องกันความเสี่ยง
  7. ทักษะในการสื่อสารและการอธิบาย: การสื่อสารอย่างชัดเจนและการอธิบายเกี่ยวกับความเสี่ยงและมาตรการป้องกันกับผู้ที่เกี่ยวข้องให้เข้าใจ เช่น ทีมพัฒนาระบบ ผู้บริหารและผู้ใช้งาน
  8. การฝึกอบรมและการพัฒนาทักษะอย่างต่อเนื่อง: การฝึกอบรมและการพัฒนาทักษะใหม่ๆ เกี่ยวกับความปลอดภัยและการป้องกันความเสี่ยงในระบบ AI เพื่อปรับปรุงและป้องกันความเสี่ยงในระยะยาว

 

     การเตรียมความพร้อมด้านทักษะและการรับรู้เกี่ยวกับความเสี่ยงที่เกี่ยวข้องกับระบบ AI เป็นสิ่งสำคัญที่สำหรับนักพัฒนาระบบและผู้ดูแลระบบ เพื่อให้สามารถป้องกันความเสี่ยงและรักษาความปลอดภัยของระบบ AI ให้มีความเชื่อถือและปลอดภัยอย่างยั่งยืนในการใช้งาน

 

Refer : https://www.sonarsource.com/ , https://medium.com/



------------------------------------------------------------------------------------------------------------------------------
ผู้ที่สนใจรับบริการข้อมูลธุรกิจเเละคำปรึกษาเเนะนำ
สามารถติดต่อเพื่อรับบริการได้ที่ ศูนย์บริการธุรกิจอุตสาหกกรรมดีพร้อม (DIPROM Business Service Center)
ภายใต้ศูนย์เทคโนโลยีสารสนเทศเเละการสื่อสาร กรมส่งเสริมอุตสาหกรรม
โทร : 02-430-6879 ต่อ 1702
Call Center : 1358 กด 0

Counter: 68

Articles About this