生成AIを安全に使うセキュリティと利用ルール
データの機密性と「学習」設定の管理
- 無料版の生成AIサービスでは、入力したデータがAIの精度向上のために「学習データ」として二次利用されるのがデフォルト設定であることが多い。
- 業務で利用する際は、設定画面から「学習への利用(Improve the model for everyone等)」を必ずオフ(オプトアウト)にするか、学習に利用されない法人向けプランを選択する。
- 一度入力したデータは、後から削除してもAIモデル内部に知識として蓄積されているリスクがあるため、入力前に「この情報は外に出しても良いものか」を常に自問する。
- ブラウザの履歴機能やオートコンプリートによって、意図せず機密情報がAIの入力欄(プロンプト)に残ってしまうリスクを考慮し、定期的にチャット履歴を整理する。
入力してはいけない情報の定義
- 個人情報: 氏名、メールアドレス、住所、電話番号、マイナンバーなど、個人を特定できる情報を絶対に入力しない。
- 機密情報: 未公開のプロジェクト資料、ソースコード、顧客リスト、社外秘の会議議事録などは、匿名化や抽象化を行ってから入力する。
- パスワード類: IDやパスワード、APIキー、秘密鍵などの認証情報は、プログラムのデバッグ目的であっても入力してはならない。
- プライバシー: 家族や知人の私的な悩みや、自分自身の高度にプライベートな相談内容など、流出した際に不利益を被る情報の入力を控える。
出力結果の正確性と権利の確認(ハルシネーション対策)
- 生成AIは「もっともらしい嘘(ハルシネーション)」をつく性質があるため、出力された事実関係や専門的な回答は、必ず信頼できる一次情報源で裏付けを取る。
- 生成されたプログラムや数式をそのまま実行せず、テスト環境で安全性を確認してから本番環境へ適用する。
- 生成物が他者の著作権を侵害していないか、既存の著作物と類似しすぎていないかを確認し、必要に応じて人間による大幅な加筆・修正を行う。
- AI生成物をそのまま成果物として公開するのではなく、あくまで「下書き」や「アイデア出し」のツールとして位置づけ、最終的な責任は人間が負うことを徹底する。
アカウントの保護と偽サービスへの警戒
- 生成AIサービスへのログインには、強力なパスワードと二段階認証(2FA)を必ず設定し、アカウントの乗っ取りによる過去のチャット履歴流出を防ぐ。
- 有名なAIツールを装った偽のアプリや拡張機能、広告(詐欺サイト)が多数存在するため、必ず公式サイトや正規のストアからのみ利用する。
- 共有のPCで利用する場合は、利用後に必ずログアウトし、ブラウザのキャッシュや履歴にプロンプトの内容が残らないように配慮する。
組織・個人での利用ガイドライン策定
- 「何をしても良いか」「何をしてはいけないか」を明文化した簡易的なガイドラインを作成し、定期的に内容を見直す。
- 新しいAI機能がリリースされた際は、その機能のプライバシーポリシーやデータ取り扱いルールをまず確認してから導入を判断する。
- 万が一、機密情報を入力してしまった場合の報告ルート(管理者への連絡など)をあらかじめ決めておき、被害の拡大を最小限に抑える体制を整える。