Cisco систематизує ризики безпеки ШІ

Штучний інтелект уже не експеримент для окремих команд. У багатьох компаніях він стає частиною щоденних процесів: автоматизує роботу, приймає рішення, взаємодіє з клієнтами та іншими системами. І чим швидше бізнес інтегрує ШІ, тим більше постає питання безпеки.

За даними Cisco AI Readiness Index 2025, лише 29% організацій вважають, що здатні захищатися від загроз. А формальний план відповідального впровадження штучного інтелекту мають лише 33%.

Саме тому Cisco представила Integrated AI Security and Safety Framework — інтегрований фреймворк, який пояснює, як підходити до безпеки ШІ-систем комплексно. Розберемось детальніше далі.

У чому була проблема з попередніми підходами?

Раніше команди безпеки користувалися різними фреймворками та рекомендаціями:

  • MITRE ATLAS — для атак на ML-системи.
  • NIST — для класифікації adversarial-атак.
  • OWASP — для ризиків LLM і агентів.
  • Внутрішні практики від великих ШІ-лабораторій.

Кожен із цих підходів корисний, але всі вони охоплюють лише частину картини. У реальності ж:

  • технічна атака швидко перетворюється на витік даних або шкідливий контент;
  • проблеми безпеки й етичної поведінки моделі тісно пов’язані;
  • ШІ-система змінюється з часом — і разом із нею змінюються ризики.

Що таке Integrated AI Security and Safety Framework?

Новий фреймворк Cisco — це спроба зібрати всі ключові ризики ШІ в одну зрозумілу картину. Це допомагає зрозуміти:

  • Де і як можуть виникати загрози?
  • Як зловмисники використовують слабкі місця штучного інтелекту?
  • Як будувати захист, який не ламається при кожному оновленні моделі?

В основі фреймворку — поєднання двох напрямів:

  • AI security — захист ШІ-систем від зламів, несанкціонованого доступу та втрати цілісності;
  • AI safety — контроль того, щоб моделі працювали передбачувано, етично й не шкодили користувачам.

Cisco наголошує: розділяти ці поняття більше не можна. Атака на систему часто завершується проблемами з безпечною поведінкою моделі — наприклад, витоком конфіденційних даних або створенням небезпечного контенту.

П’ять принципів, на яких побудований фреймворк

Cisco виділяє п’ять ключових елементів, які відрізняють цей фреймворк від попередніх:

  1. Єдиний погляд на атаки та наслідки

    Фреймворк розглядає технічну атаку й шкоду для користувачів як частини одного ланцюга, а не як окремі проблеми.
  2. Фокус на весь життєвий цикл ШІ

    Ризики на етапі збору даних, тренування, деплою та роботи в production різні. Модель враховує всі ці етапи.
  3. Урахування multi-agent систем

    Коли ШІ-агенти взаємодіють між собою, використовують інструменти й мають пам’ять, з’являються нові типи загроз — і фреймворк їх покриває.
  4. Мультимодальні загрози

    Атаки можуть приходити не лише через текстові запити, а й через аудіо, зображення, відео, код чи навіть сенсорні дані.
  5. Зручність для різних ролей

    Один фреймворк — але різна глибина:
    • для керівників — зрозумілі бізнес-ризики;
    • для security-команд — техніки атак;
    • для інженерів — конкретні сценарії та процедури.

Як виглядає класифікація загроз?

Усередині фреймворку — чітка структура:

  • Цілі атак (навіщо атакують);
  • Техніки (як саме);
  • Підтехніки (конкретні варіанти);
  • Процедури (реальні сценарії з практики).

Cisco описує близько 20 основних цілей атак — від jailbreak і prompt injection до компрометації ланцюгів постачання та маніпуляцій у multi-agent системах. Загалом це понад 150 технік та підтехнік, які вже трапляються або є технічно можливими.

Що буде далі?

Cisco інтегрує новий фреймворк у Cisco AI Defense та працює з іншими організаціями над узгодженням стандартів ШІ-безпеки. Паралельно компанія розширює набір рекомендацій та інструментів для виявлення атак на штучний інтелект в реальних середовищах.

Коли ШІ стає частиною критичної інфраструктури бізнесу, без чіткої моделі ризиків уже не обійтися. І Cisco намагається цю модель нарешті зібрати в єдине ціле. 

Для кращого розуміння того, як штучний інтелект вже сьогодні застосовується в DevOps-процесах, радимо також ознайомитися з корисними AI-інструментами для DevOps у 2026 році.

Залишити відповідь

Дякуємо, що поділились