第一回テーマ「サイバーセキュリティ」
CompTIA認定資格試験の開発とメンテナンスに携わっていただいているSME(サブジェクト・マター・エキスパート)に、ITに関するギモンを質問してみました!
第一回テーマの「サイバーセキュリティ」について、安田 良明様にご協力をいただきました。
Q1. サイバーセキュリティの観点から、生成AIを使う上で気を付けるべきことはありますか?
安田様:
生成AIがビジネスや個人の生活において身近な存在になってきたので、サイバーセキュリティの観点に配慮することは非常に重要です。
初めに、生成AIの本質的なリスクは「便利さ」そのものと理解する必要があります。生成AIが導入された組織では、意思決定支援や業務効率化に大きな価値をもたらしますが、一方で従前の情報システムには存在しなかった新しい脅威が含まれています。そのため、AIのライフサイクル全体・データ・モデル・利用者行動を含めた包括的な管理策が不可欠であり、技術的管理策(ガードレール・モニタリング)と、組織的管理策(ガバナンス、リスク、コンプライアンス)をセットで考えなければ、安全な活用はできません。
生成AIを普段利用することで最も頻発するリスクは偶発的な情報漏えいと考えられます。そのため、入力データと出力データのリスクマネジメント(データセキュリティ)に取り組む必要があります。身近な事例として、機微情報、個人識別情報、機密情報、知的財産などをプロンプトに入力しない、データ最小化・データ分類ラベル・データマスキングを徹底すること、パブリックモデルとプライベートモデルを用途で明確に使い分けるなどの検討が必要です。
次にプロンプトそのものが攻撃対象になる点への注意が必要です。生成AIでは、プロンプト=攻撃面(Attack Surface)と理解する必要があります。実際に存在する攻撃して、プロンプトインジェクション、ガードレールの迂回(Jailbreak)、過度なエージェンシー(AIに権限を与えすぎる)などがあります。これらの管理策としては、プロンプトテンプレートの固定化、プロンプトファイアーウォール、モデルガードレールの設定、Human-in-the-loop(人間の介在・人間による確認)などが重要です。
品質の確保やコンプライアンスのモニタリングにも注意が必要です。生成AIは確率モデルであり、正確性を保証しないため、AIは「正しい答え」を返すとは限らない(ハルシネーション管理)ことを前提にした管理策が必要です。具体的には、ハルシネーション、誤情報や偽情報の生成、バイアスの導入が起こり得ます。そのため、レスポンスの信頼度レベル評価、検証・監査(正確度、公平性、説明可能性)、RAG(検索拡張生成)による根拠付き回答などの管理策が必要です。
さらに私が大切にしている心構えとして、「AIを過信しないこと自体がセキュリティ管理策」だということにも触れたいです。普段から気を付けていることとして、AIの出力を最終判断に使わない、セキュリティ対応・インシデント対応では人の介入箇所を残す、AIは意思決定支援ツールと位置付け、人間中心のAI設計原則を大切にしています。
現場でよく見受けられるのが、いわゆる「シャドーAI」です。組織が未承認の生成AIを利用すること、ブラウザプラグイン・IDEプラグインの無断導入などもあります。そのため、AI利用ポリシーの明文化、承認済みツール・非承認ツールの明確化、アクセス制御(IAM、最小権限)が不可欠です。
最後にコンプライアンスの影響について、法務部門を中心に実施する必要があります。生成AIの利用は技術問題だけではなく、データ主権、知的財産リスク、法規制(EU AI法、NIST AI RMF、ISOスタンダードなど)といったコンプライアンスに影響があります。特にクラウド型生成AIでは、AIサプライチェーン攻撃・モデル窃取の視点も重要になります。
このように、AIのライフサイクル全体で具体的な脅威を想定すると、いくつかの気を付けるべきポイントを把握することができますので、ご参考にしてください。
(Q.2へ続く)