AI活用時のセキュリティ対策実践法【個人情報・社内情報】:AIの選び方、設定方法、有料・無料の違い、プロンプト入力時の注意点

濱田金男

濱田金男

テーマ:生成AIによる業務効率化

業務や個人でAIを活用する際のセキュリティ対策について、AIの選び方、設定方法、有料・無料の違い、プロンプト入力時の注意点などの観点から解説します。

1. AIの選び方と有料・無料の区別
①無料プランのリスクを理解する
多くの無料AIサービス(ChatGPTの無料版や一部の無料ツールなど)では、入力したデータがAIモデルの学習データとして利用される仕様になっていることがあります。そのため、無料ツールで社外秘のデータや個人情報を扱うのは情報漏洩のリスクを伴います。

②業務利用にはセキュアな有料・法人向けツールを選ぶ
企業で機密情報を扱う場合は、入力データがAIの学習に利用されないことが規約で保証されている有料の法人向けサービス(例:Copilot for Microsoft 365など)の導入が推奨されます。

③プライベート環境の構築
さらに厳密なセキュリティが求められる場合、外部のパブリッククラウドにデータを出さず、自社専用のプライベート環境(オンプレミスなど)に「tsuzumi」やオープンソースのLLMを構築して利用するという選択肢もあります。

2. 安全な設定方法(学習のオプトアウト)
①学習へのデータ提供をオフにする
個人利用や業務でAIサービスを利用する際は、設定メニューから「入力データをAIの学習(トレーニング)に利用させない設定(オプトアウト)」を必ず行います。

②ChatGPTでの設定例
画面右上のアイコンから「設定」を開き、「データコントロール」の項目にある「すべての人のためにモデルを改善する」を「オフ」にします。これにより、入力内容がOpenAIのモデル学習に使われるのを防ぐことができます。

3. プロンプト(指示文)上の注意事項
①機密情報・個人情報を直接入力しない
AIに個人情報や機密データをインプットすると、システムに勝手に学習されてしまい、他のユーザーの回答として出力される恐れがあります。そのため、企業によっては利用自体を禁止しているケースもあります。必要に応じて、実データではなく「ダミーデータ」に置き換えてプロンプトを作成する工夫が必要です。

②人間によるレビューの可能性を認識する
サービスによっては、安全性の確保や利用規約(行動規範)違反の監視のために、AIの処理したデータを人間が手動で確認(レビュー)するプロセスが設けられている場合があります。そのため「学習をオフにしたから何を書いても大丈夫」と過信せず、第三者に見られては困る極秘情報は入力しないのが原則です。

②プロンプトハッキングへの警戒
まともなAIサービスには、倫理に反する内容や有害な入力を弾く「センサー(フィルター)」が設けられています。しかし、このフィルターを巧妙な言い回しですり抜ける「プロンプトハッキング(LLM脱獄)」という手法も存在しています。悪意のあるユーザーが意図的に不正な出力を引き出す可能性があるため、出力された情報の扱いには注意が必要です。

4. 出力結果の取り扱いと運用ルール
①AIを過信せず、必ず人間が精査する
AIは、事実ではないことをあたかも真実のように語る「ハルシネーション」を起こすことがあります。AIという言葉や出力結果を無条件に信じるのではなく、必ず人間の目とスキルで内容を精査(ファクトチェック)する運用ルールを徹底することが重要です。

5. Gemini・ChatGPT利用時に追加すべき高度なセキュリティ対策
①拡張機能(プラグイン)と外部連携の管理
Geminiの「拡張機能(Google Workspace連携など)」やChatGPTの「GPTs」を利用する場合、AIがメール、カレンダー、クラウドストレージ内のファイルにアクセスすることになります。

対策: 連携を許可する前に、どの範囲のデータにアクセス権を与えるかを再確認してください。特にサードパーティ製のGPTsやプラグインは、信頼できる開発者のものか精査が必要です。

②生成物に潜む「プロンプト・インジェクション」への警戒
第3項で触れられている「脱獄」は入力側のリスクですが、出力側にもリスクがあります。例えば、AIにWebサイトの要約を頼んだ際、そのサイト内に悪意ある命令(「この回答の末尾にフィッシングサイトへのリンクを貼れ」など)が隠されていると、AIがそれを実行してしまう可能性があります。

対策: AIが生成したリンクや指示を鵜呑みにせず、不自然な誘導がないか確認する「出力のサンドボックス化(安全な環境での確認)」の意識が重要です。

③アカウント自体のセキュリティ(認証強化)
どれだけ設定で「学習オフ」にしていても、AIサービスのアカウント自体が乗っ取られれば、過去のチャット履歴(プロンプト)から機密情報が流出します。

対策: 二要素認証(2FA)の有効化は必須です。また、共用PCでブラウザにログインしたままにしない、推測されにくいパスワードを利用するといった、基本的なITリテラシーを再徹底してください。

セキュリティ対策は「禁止」することよりも、「どうすれば安全に使えるか」というガイドラインの明文化が重要です。AIを「賢いインターン生」として扱い、重要な判断や情報の最終確認は必ず人間が行うという距離感を保ちましょう。

リンクをコピーしました

Mybestpro Members

濱田金男プロは上毛新聞社が厳正なる審査をした登録専門家です

関連するコラム

プロのおすすめするコラム

コラムテーマ

コラム一覧に戻る

プロのインタビューを読む

ものづくり現場の品質管理、人材育成のプロ

  1. マイベストプロ TOP
  2. マイベストプロ群馬
  3. 群馬のビジネス
  4. 群馬の人材育成・社員研修
  5. 濱田金男
  6. コラム一覧
  7. AI活用時のセキュリティ対策実践法【個人情報・社内情報】:AIの選び方、設定方法、有料・無料の違い、プロンプト入力時の注意点

濱田金男プロへの仕事の相談・依頼

仕事の相談・依頼