MENU

【第1回】企業が生成AIを使う前に知っておくべき「見えないセキュリティリスク」

近年、ChatGPTをはじめとする生成AIは急速に普及し、企業の業務でも活用が広がっています。メール作成、議事録の要約、資料作成、プログラムコードの生成など、さまざまな業務の効率化に役立つツールとして、多くの企業が導入を検討しています。

実際、生成AIを活用することで、文書作成や情報検索にかかる時間を大幅に削減できるケースもあり、月間数百時間から数千時間規模の業務削減効果が報告されている事例もあります。

しかし一方で、企業が生成AIを利用する際には、従来のITツールとは異なるセキュリティリスクが存在することも忘れてはなりません。本記事では、企業が生成AIを利用する際に知っておくべき基本的なリスクについて解説します。

目次

生成AIとは何か(簡単におさらい)

生成AI(Generative AI)とは、文章・画像・音声・動画・プログラムコードなど、さまざまなコンテンツを自動生成するAI技術です。

多くの生成AIは、大規模言語モデル(LLM)と呼ばれる技術をベースにしています。
LLMは膨大なテキストデータを学習し、「次に来る言葉の確率」を予測することで自然な文章を生成します。

この仕組みにより、人間が書いたような自然な文章を生成できる一方で、

  • 必ずしも正しい情報とは限らない
  • 事実と異なる内容が生成される

といった特徴も持っています。
つまり生成AIは、非常に便利なツールである一方で、正しく理解して使わなければリスクも伴う技術なのです。

企業で生成AIが広がる理由

企業が生成AIを導入する背景には、次のような課題があります。

  • 人手不足
  • 人件費の高騰
  • 業務の属人化
  • DX推進
  • 顧客ニーズの多様化

生成AIはこれらの課題に対して、次のような効果が期待されています。

生成AI活用の主なメリット

  • 文書作成の効率化
  • 情報検索時間の短縮
  • 業務の標準化
  • 顧客対応の迅速化
  • 新サービス開発の支援

そのため、企業ではまず補助業務から生成AIの導入が始まり、徐々にコア業務へと活用範囲を広げていくケースが増えています。

しかし、生成AIには見えにくいリスクがある

生成AIの導入にあたり、最も注意すべきなのがセキュリティリスクです。生成AIはクラウドサービスとして提供されるケースが多く、入力した情報が外部サーバへ送信される仕組みになっています。このため、企業が気づかないうちに情報漏えいにつながるケースもあります。特に注意すべき代表的なリスクを紹介します。

リスク①ー 機密情報の入力による情報漏えい

生成AIの利用で最も多く指摘されているのが機密情報の入力による情報漏えいです。

例えば業務効率化のために次のような使い方をするケースがあります。

  • 社内資料をAIに貼り付けて要約させる
  • 顧客情報を含むメールを作成させる
  • 未公開の製品仕様書を翻訳させる

一見すると便利な使い方ですが、入力されたデータはAIサービスのサーバへ送信される可能性があります。場合によっては、入力した内容が将来の学習データとして利用される可能性も指摘されています。

実際に、ある企業では従業員が生成AIに社内情報を入力したことで、機密情報の扱いが問題となった事例が報告されています。

リスク②ー AIが生成した誤情報の公開

生成AIは非常に自然な文章を生成しますが、正しい情報を生成するとは限りません。AIが事実と異なる内容を生成する現象は「ハルシネーション」と呼ばれています。

例えば、

  • 存在しない判例
  • 誤った法律解釈
  • 存在しない企業情報

などを、もっともらしく生成することがあります。海外では、弁護士がAIの生成した架空の判例を裁判資料として提出してしまい、問題になったケースも報告されています。

企業がAIの出力をそのまま社外公開してしまうと、信用低下やブランド毀損につながる可能性があります。

リスク③ー AIの悪用(ディープフェイクなど)

生成AIは画像や音声も生成できるため、悪用されるケースも増えています。

例えば次のような事例です。

  • AI生成の偽画像による市場混乱
  • AI音声を使ったなりすまし詐欺
  • AI生成メールによるフィッシング攻撃

実際に、AIで生成された「ペンタゴン爆発」の偽画像がSNSで拡散され、市場が一時的に動揺した事例もあります。生成AIのコンテンツは非常に精巧であり、本物と区別がつきにくいという特徴があります。企業の広報活動や情報発信においても、こうしたリスクへの理解が必要になります。

重要なのは「使うか否か」ではなく「どう使うか」

生成AIは、企業の生産性向上や業務改革に大きく貢献する可能性を持っています。生成AIを使用しないという選択をした場合、生成AIを使用する同業のライバル企業に差をつけられてしまう可能性があります。そのため、生成AIを使用しないという選択は選びにくい状況になっています。

一方で生成AIを使用する選択をした場合、

  • 情報漏えい
  • 誤情報の発信
  • 著作権問題
  • AI悪用リスク

など、従来とは異なるリスクも存在します。そのため企業にとって重要なのは、「生成AIを使うかどうか」ではなく「どのようなルールで安全に使うか」という視点です。

では、企業はどう対策すればよいのか?

生成AIのリスクは、適切なルールと運用体制を整備することで大きく低減できます。

例えば次のような取り組みです。

  • 生成AI利用ルールの策定
  • 機密情報入力の禁止
  • 出力内容のチェック体制
  • AI利用ログの管理
  • 従業員教育

こうした対策を体系的に整理すると、企業として安全な生成AI活用が可能になります。

ただし、実際には「どこまでルール化すべきか」や「現場では何をチェックすべきか」といった具体的な運用に悩む企業も少なくありません。そのため、企業向けのAIセキュリティ対策ではチェックリスト形式で運用ルールを整理する方法もよく使われています。

次回の記事

生成AIのリスクを理解したうえで、次に重要になるのが「企業としてどのようなルールを作るべきか」です。次回の記事では、企業が生成AIを安全に使うために必要な「社内ルール」について解説します。

この記事を書いた人
近藤 伸明

株式会社神戸デジタル・ラボ
デジタルビジネス本部 
Securityチーム シニアセキュリティコンサルタント

企業様向けのセキュリティアドバイザリー支援実施。企業様向け、および、セキュリティ関連組織向けのドキュメント作成実績多数あり。直近ではJNSA「今すぐ実践できる工場セキュリティハンドブック」作成に携わる。

  • URLをコピーしました!
目次