
Для кого це:
- Постачальники моделей штучного інтелекту
- Постачальники оркестрованих послуг
- Оператори інфраструктури
- Розробники додатків
- Клієнти штучного інтелекту
Матриця керування штучним інтелектом
Дата виходу: 07/09/2025
Оновлено: 30.10.2025
Матриця контролю штучного інтелекту (AI Controls Matrix, AICM) – це перша у своєму роді незалежна від постачальника структура для хмарних систем штучного інтелекту. Організації можуть використовувати AICM для розробки, впровадження та експлуатації технологій штучного інтелекту безпечним та відповідальним способом. Розроблена галузевими експертами, AICM базується на Матриці контролю хмари (CCM) CSA та включає найновіші передові практики безпеки штучного інтелекту.
AICM містить 243 цілі контролю, розподілені по 18 доменам безпеки. Він відповідає провідним стандартам, включаючи ISO 42001, ISO 27001, NIST AI RMF 1.0 та BSI AIC4. AICM можна вільно завантажити (див. «Завантажити ресурс» нижче).
Що входить до цього завантаження:
- Матриця контролю ШІ: Електронна таблиця з 243 цілями контролю, проаналізованими за п'ятьма критичними складовими, включаючи тип контролю, застосовність та власність контролю, архітектурну релевантність, релевантність життєвого циклу LLM та категорію загрози.
- Зіставлення з каталогом BSI AIC4
- Зіставлення з NIST AI 600-1 (2024)
- Відповідність ISO 42001:2023
- Керівні принципи впровадження
- Керівні принципи аудиту
- Зіставлення з Законом ЄС про штучний інтелект
- Анкета ініціативи консенсусної оцінки для штучного інтелекту (AI-CAIQ): набір питань, що відповідають AICM. Ці питання можуть допомогти організаціям у проведенні самооцінки або оцінці сторонніх постачальників.
- Заповнення AI-CAIQ: Керівництво щодо точного заповнення самооцінки AI-CAIQ, включаючи правила власності, доказів та документування.
- Посібник із подання STAR для AI рівня 1: Покрокові інструкції щодо подання самооцінки AI-CAIQ до реєстру STAR.
Пов’язані ресурси:
- Матриця керування хмарними ресурсами (CCM) : система керування кібербезпекою для хмарних обчислень. Як постачальники, так і клієнти можуть використовувати CCM як інструмент для систематичної оцінки впровадження хмари.
- Зобов'язання щодо надійності ШІ : зобов'язання, яке організації можуть підписати, щоб засвідчити свою відданість розробці та підтримці надійного ШІ.
- Програма STAR for AI : ініціатива CSA щодо надання майбутньої сертифікації організаціям для демонстрації надійності ШІ.
- Програма сертифікації знань про безпеку штучного інтелекту (Trusted AI Safety Knowledge Certification Program ): майбутня програма навчання та сертифікації від CSA та Північно-Східного університету. Вона має на меті допомогти фахівцям керувати ризиками, пов'язаними зі штучним інтелектом, застосовувати засоби контролю безпеки та керувати відповідальним впровадженням штучного інтелекту.
Джерело:
→ https://cloudsecurityalliance.org/artifacts/ai-controls-matrix