Рік Качча, генеральний директор та співзасновник Sucderai – серія інтерв’ю


Рік ХантГенеральний директор та співзасновник Sucderai, має великий досвід запуску продуктів безпеки та відповідності. Він займав керівні ролі в продуктах та маркетингу в Palo Alto Networks, та Symantec. Раніше Caccia керував маркетингом продуктів в Arcsight через його IPO та подаль операції як публічна компанія та служив першим головним директором з маркетингу Exabeam. Він має кілька ступенів в Каліфорнійському університеті, Берклі.

Свідкай розробляє платформу безпеки, орієнтовану на забезпечення безпечного та безпечного використання в підприємствах. З кожним великим технологічним зрушенням – наприклад, як виникають проблеми з веб -, мобільними та хмарними обчисленнями – нові проблеми безпеки, створюючи можливості для лідерів галузі. AI являє собою наступну межу в цій еволюції.

Компанія має на меті встановити себе лідером у безпеці AI, поєднуючи досвід роботи в машинному навчанні, кібербезпеці та масштабних хмарних операцій. Його команда приносить глибокий досвід роботи в розвитку AI, зворотній інженерії та багаторазовому розгортанні Kubernetes, вирішуючи критичні проблеми забезпечення технологій, керованих AI-керованих.

Що надихнуло вас на співзасновника Successai та які ключові виклики в управлінні та безпеці AI ви мали на меті вирішити?

Коли ми вперше запустили компанію, ми думали, що групи безпеки будуть стурбовані нападами на їх внутрішні моделі AI. Натомість, перші 15 CISO, з якими ми говорили, зазначили навпаки, що широко розповсюджене корпоративне розгортання LLM було довгим шляхом, але термінова проблема полягала в тому, щоб захистити їхні програми AI інших людей. Ми зробили крок назад і побачили, що проблема не відбиваючись від страшних кібератаків, це безпечно дозволяло компаніям продуктивно використовувати AI. Хоча управління, можливо, менш сексуальне, ніж кібератаки, це те, що насправді потребували групи безпеки та конфіденційності. Їм потрібна була видимість того, що роблять їхні працівники з стороннім ШІ, способом реалізації прийнятних політики використання та способом захисту даних, не блокуючи використання цих даних. Отже, це ми побудували.

Враховуючи ваш великий досвід у Google Cloud, Palo Alto Networks та інших фірмах з кібербезпеки, як ці ролі вплинули на ваш підхід до створення Свіді?

Я розмовляв з багатьма CISO протягом багатьох років. Однією з найпоширеніших речей, яку я чую від CISO сьогодні, є: “Я не хочу бути” лікарем ні “, коли мова йде про AI; Я хочу допомогти нашим працівникам використовувати це, щоб бути кращим ». Як хтось, хто довго працював з постачальниками кібербезпеки, це зовсім інше твердження. Це більше нагадує епоху DOTCOM, коли Інтернет була новою та трансформаційною технологією. Коли ми створили свідки, ми спеціально починали з можливостей продуктів, які допомогли клієнтам безпечно прийняти ШІ; Наше повідомлення полягало в тому, що цей матеріал схожий на магію, і, звичайно, всі хочуть пережити магію. Я думаю, що охоронні компанії занадто швидкі, щоб грати на картці страху, і ми хотіли бути різними.

Що відрізняє свідок від інших платформ управління та безпеки AI сьогодні на ринку?

Ну, з одного боку, більшість інших постачальників у просторі зосереджені насамперед на частині безпеки, а не на частині управління. Для мене управління – це як гальма на машині. Якщо ви дійсно хочете швидко дістатися кудись, вам потрібні ефективні гальма на додаток до потужного а. Ніхто не збирається керувати Ferrari дуже швидко, якщо у нього немає гальм. У цьому випадку ваша компанія, що використовує AI, – це Ferrari, а Свідкей – гальмо і кермо.

На відміну від цього, більшість наших конкурентів зосереджуються на теоретичних страшних атаках на модель AI організації. Це справжня проблема, але це інша проблема, ніж отримання видимості та контролю над тим, як мої співробітники використовують будь -які з 5000+ додатків AI, які вже є в Інтернеті. Нам набагато простіше додати брандмауер AI (і ми маємо), ніж це для постачальників брандмауерів AI, щоб додати ефективне управління та управління ризиками.

Як свідок врівноважує потребу в інновації AI з безпекою та дотриманням підприємств?

Як я писав раніше, ми вважаємо, що AI повинен бути схожим на магію – це може допомогти вам зробити дивовижні речі. Зважаючи на це, ми вважаємо, що інновації та безпека AI пов’язані. Якщо ваші співробітники можуть безпечно користуватися ШІ, вони використовуватимуть його часто, і ви будете витягнути вперед. Якщо ви застосовуєте типовий спосіб безпеки та зафіксуєте його, ваш конкурент цього не зробить, і вони витягнуть вперед. Все, що ми робимо, – це забезпечення безпечного прийняття ШІ. Як сказав мені один із клієнтів: “Цей матеріал є магією, але більшість постачальників ставляться до цього так, як це була чорна магія, страшна і щось, щоб боятися”. У Свідку ми допомагаємо ввімкнути магію.

Чи можете ви говорити про основну філософію компанії щодо управління AI – ви бачите безпеку AI як сприяння, а не обмеження?

Ми регулярно маємо CISO на нас на заходах, де ми представили, і вони говорять нам: «Ваші конкуренти – це те, наскільки страшний ШІ, і ви єдиний постачальник, який розповідає нам, як насправді його ефективно використовувати». Сундар Пічай в Google сказав, що “AI може бути більш глибоким, ніж вогонь”, і це цікава метафора. Вогонь може бути неймовірно згубним, як ми нещодавно бачили. Але контрольований вогонь може зробити сталь, що прискорює інновації. Іноді на свідці ми говоримо про створення інновацій, що дозволяє нашим клієнтам безпечно спрямовувати «пожежу» AI, щоб створити еквівалент сталі. Крім того, якщо ви вважаєте, що AI схожий на магію, то, можливо, наша мета – дати вам магічну паличку, щоб направити та контролювати її.

В будь -якому випадку ми абсолютно вважаємо, що безпечно дозволити AI – мета. Тільки для того, щоб навести приклад, існує багато інструментів запобігання втратам даних (DLP), це технологія, яка існує назавжди. І люди намагаються застосувати DLP до використання AI, і, можливо, підключення браузера DLP, які ви набрали в довгому запиті прохання про допомогу у вашій роботі, і в тому, що реклами рекламують номер клієнта. Що відбувається? Продукт DLP блокує підказку від виходу, і ви ніколи не отримуєте відповіді. Це обмеження. Натомість, за допомогою свідків, ми можемо визначити однакову кількість, і мовчки та хірургічно редагувати його на льоту, а потім не редагувати його у відповідь AI, щоб ви отримали корисну відповідь, а також зберігаєте свої дані. Це сприятливість.

З якими найбільшими ризиками стикаються підприємства під час розгортання генеративного ШІ, і як свідок їх пом’якшує?

Перший – це видимість. Багато людей здивовані, дізнавшись, що Всесвіт програми AI не просто чатгпт і тепер DeepSeek; В Інтернеті є буквально тисячі програм AI, а підприємства поглинають ризики у працівників, які використовують ці програми, тому перший крок – це видимість: які програми AI використовують мої працівники, що вони роблять з цими додатками, і чи це ризиковано?

Другий – це контроль. Ваша юридична команда створила всебічну політику прийнятного використання для ШІ, яка забезпечує безпеку даних клієнтів, даних про громадян, інтелектуальну власність, а також безпеку працівників. Як ви будете реалізувати цю політику? Це у вашому продукті безпеки кінцевої точки? У вашому брандмауері? У вашому VPN? У вашій хмарі? Що робити, якщо вони всі від різних постачальників? Отже, вам потрібен спосіб визначити та застосувати прийнятну політику використання, яка відповідає моделям AI, програм, хмар та продуктів безпеки.

Третій – захист ваших власних додатків. У 2025 році ми побачимо набагато швидше прийняття LLMS в підприємствах, а потім швидше розгортання додатків для чату, що працюють від цих LLM. Отже, підприємствам потрібно переконатися не тільки в тому, що програми захищені, але й те, що програми не говорять “німими” речами, як рекомендувати конкурента.

Ми звертаємось до всіх трьох. Ми надаємо видимість, до яких додатків отримують доступ до людей, як вони використовують ці програми, політика, яка базується на тому, хто ви є і що ви намагаєтесь зробити, і дуже ефективні інструменти для запобігання нападам, такими як джейлбрейк або небажана поведінка з ботів.

Як функція спостережуваності AI свідка допомагає компаніям відстежувати використання працівників AI та запобігти ризикам “тіні АІ”?

Свідкай підключається до вашої мережі легко і мовчки створює каталог кожного додатка AI (і в Інтернеті є буквально тисячі), який доступ до ваших співробітників. Ми говоримо вам, де розташовані ці програми, де вони розміщують свої дані тощо, щоб ви зрозуміли, наскільки ризиковані ці програми. Ви можете ввімкнути видимість розмови, де ми використовуємо глибокий огляд пакетів для спостереження за підказками та відповідями. Ми можемо класифікувати підказки за ризиком та за наміром. Намірами може бути “код написання” або “написати корпоративний договір”. Це важливо, оскільки ми дозволяємо вам писати контроль політики на основі наміру.

Яку роль відіграє правозастосування політики AI у забезпеченні корпоративного дотримання AI, і як свідки впорядковують цей процес?

Відповідність означає забезпечення того, щоб ваша компанія дотримувалася правил чи політики, і є дві частини для забезпечення дотримання. Перший полягає в тому, що ви повинні мати можливість визначити проблематичну діяльність. Наприклад, мені потрібно знати, що працівник використовує дані клієнтів таким чином, що може бути порушено закон про захист даних. Ми робимо це за допомогою нашої платформи спостереження. Друга частина описує та виконує політику проти цієї діяльності. Ви не хочете просто знати, що дані клієнтів протікають, ви хочете зупинити це від протікання. Отже, ми створили унікальний двигун політики, що стосуються AI, свідків/контролю, який дозволяє легко будувати ідентичність та політику, засновану на намірах, для захисту даних, запобігання шкідливих або незаконних відповідей тощо, наприклад, ви можете побудувати політику Це говорить щось на кшталт: “Тільки наш юридичний відділ може використовувати для написання корпоративних договорів, і якщо вони це роблять, матично редагувати будь -які PII”. Легко сказати, і з свідком, легкий у виконанні.

Як свідок вирішує занепокоєння навколо джейлбрейків LLM та оперативних нападів ін’єкцій?

У нас є хардкор -дослідницька група AI – справді гостра. На початку вони створили систему для створення даних синтетичної атаки, крім того, щоб витягувати широко доступні набори даних про навчання. Як результат, ми орієнтувались на нашу оперативну ін’єкцію проти всього там, ми перевищуємо 99% ефективних і регулярно вловлюючи напади, які самі моделі пропускають.

На практиці більшість компаній, з якими ми спілкуємося, хочуть почати з управління програмами працівників, а потім трохи пізніше вони розгорнули додаток для клієнтів AI на основі їх внутрішніх даних. Отже, вони використовують свідка для захисту своїх людей, потім вони вмикають оперативне брандмауер для ін’єкцій. Одна система, один послідовний спосіб побудови політики, простий у масштабі.

Які ваші довгострокові цілі для свідків, і де ви бачите, що управління AI розвивається в найближчі п’ять років?

Поки що ми тут говорили лише про модель програми «Особа до CHAT». Наступним нашим етапом буде обробка додатка до програми, тобто агента AI. Ми розробили API на нашій платформі, щоб однаково працювати як з агентами, так і з людьми. Крім того, ми вважаємо, що ми створили новий спосіб отримати видимість на рівні мережі та контроль політики в епоху ШІ, і ми будемо вирощувати компанію з цим на увазі.

Дякуємо за чудове інтерв’ю, читачі, які бажають дізнатися більше, повинні відвідати Свідкай.



Джерело

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *