
情報漏洩リスクに対応する「Stena AI」提供開始
公開日:
生成AIの業務利用が広がる一方で、多くの企業が情報漏洩のリスクに頭を悩ませています。こうした課題に対応するため、AIセキュリティ技術を開発する株式会社ChillStackが、従業員による不適切なAI利用を自動で検知・防止する新サービス「Stena AI」の提供を開始しました。
このサービスは、従業員が個人情報や社外秘情報を生成AIに入力しようとする行為をリアルタイムで防ぎ、企業のセキュリティポリシーに沿った安全なAI活用を支援します。同社の調査では、実に8割の企業が生成AIの業務利用に不安を感じているとされ、新サービスはこうした懸念に応えるものとなります。
ポイント
- 1従業員による個人情報や機密情報の送信を自動で検知・防止
- 2企業ごとの利用ルールに合わせて、検知内容を柔軟にカスタマイズ可能
- 3入力データは保存されず、国内サーバーで処理を完結させることもできる
「うっかりミス」による情報漏洩を防ぐ
株式会社ChillStackが発表した「Stena AI」は、従業員が生成AIを利用する際に、個人情報や企業の非公開情報といった機密データを含むプロンプトを送信しようとすると、システムが自動で検知し、その操作を防止するサービスです。これにより、意図しない情報漏洩のリスクを大幅に低減させます。
開発の背景には、企業における生成AI利用の急速な拡大と、それに伴うセキュリティへの強い懸念があります。同社が実施した調査によると、回答者の80%が生成AIの業務利用に何らかの不安を抱えており、特に64%が「従業員による個人情報・社外秘情報の誤入力と情報漏洩リスク」を問題視していることが明らかになりました。「Stena AI」は、こうした企業の切実なニーズに応えるために開発されました。
企業ごとの事情に合わせた柔軟な運用
このサービスの大きな特長は、検知ルールを柔軟にカスタマイズできる点にあります。電話番号やメールアドレスといった一般的な個人情報のパターンに加え、未公開の製品名や財務情報など、企業独自の機密情報に関するルールも設定可能です。さらに、全社共通のルールだけでなく、部署やプロジェクト単位で異なるポリシーを適用することもできます。
セキュリティ面にも配慮されており、ユーザーが入力した内容やAIによる生成結果はシステムに保存されません。外部の大規模言語モデル(LLM)にデータが送信された場合でも、そのデータが学習に利用されることはないとのこと。オプションとして、国内に設置されたLLMを活用し、すべてのデータ処理を国内で完結させるセキュアな環境も提供します。
引用元:PR TIMES

O!Productニュース編集部からのコメント
生成AIの導入はまず使ってみる段階から、いかに安全に展開するかというフェーズに移りつつあります。そんな中、システム側で自動的に情報漏洩を制御するこのサービスは、企業のITガバナンスを強化する上で、実効性の高い選択肢となりそうです。