第7回 / 全8回 ⏱ 約15分

AIを業務で使うときの注意点

機密情報の取り扱い、ハルシネーション対策、著作権の問題など、ビジネスでAIを使う際に知っておくべきリスクと対策を解説します。

このレッスンで学ぶこと

  • AIに入力してはいけない情報
  • ハルシネーション(AIのウソ)への対策
  • 著作権・知的財産の注意点
  • 会社でAIを使うときのルール

1. 機密情報の取り扱い

入力してはいけない情報

ChatGPTに入力した情報は、AIの学習に使われる可能性があります(設定による)。

以下の情報は入力しないでください:

  • 個人情報 — 顧客の氏名・住所・電話番号・メールアドレス
  • 社内機密 — 未発表の製品情報、経営戦略、M&A情報
  • 認証情報 — パスワード、APIキー、アクセストークン
  • 契約情報 — NDA対象の取引先情報、契約金額
  • 医療情報 — 患者の診療情報、健康データ

安全に使うための対策

対策具体例
匿名化「田中太郎」→「顧客A」に置き換え
ダミーデータ実際の金額「1,250万円」→「1,000万円」
法人向けプランChatGPT Team/Enterprise、Azure OpenAI等を利用
オプトアウトChatGPTの設定でデータ学習を無効にする

ChatGPTのデータ学習を無効にする方法

Settings → Data controls → 「Improve the model for everyone」をオフにすると、入力データがAIの学習に使われなくなります。

2. ハルシネーション対策

第1回で学んだ通り、AIは事実と異なる情報を自信満々に回答することがあります。

特に注意が必要な場面

  • 数値・統計データ — 「日本の○○市場は△△億円」→ 実際の数値と異なる可能性
  • 法律・規制 — 「○○法の第△条では…」→ 存在しない条文を引用することがある
  • 人物情報 — 「○○さんは△△大学出身」→ 完全な捏造の可能性
  • URL・参考文献 — 存在しないWebページや論文を「引用」することがある

対策チェックリスト

  • 重要な事実は必ず一次情報源で確認する
  • AIの回答に「出典はありますか?」と聞く
  • 数値データは公式統計や社内データと照合する
  • 法律に関する回答は弁護士や専門家に確認する
  • AIの回答を「ドラフト」として扱い、最終判断は人間が行う

3. 著作権・知的財産

AIの出力と著作権

  • AIが生成した文章は、他人の著作物の一部と類似する可能性がある
  • そのまま公開する前に、独自性があるか確認する
  • 特に長文の引用や具体的な表現は要注意

やってはいけないこと

  • 他社の文章をAIに入力して「リライトして」→ 著作権侵害の可能性
  • AIの出力をそのまま「自分の著作物」として公開 → 品質と責任の問題
  • 競合他社の資料をAIに分析させる → 不正競争防止法のリスク

安全な使い方

  • AIの出力は「たたき台」として使い、自分の言葉で書き直す
  • 事実関係は自分で調べて裏取りする
  • 社外に公開する文書は、法務チェックを通す

4. 会社のAI利用ポリシー

多くの企業が、AIツールの利用に関するガイドラインを策定しています。

確認すべきポイント

  • 利用可能なツール — ChatGPTは使ってよいか?会社指定のツールはあるか?
  • 入力可能な情報の範囲 — 社内情報をどこまで入力してよいか?
  • 出力の利用範囲 — AIの出力を社外に出してよいか?
  • 責任の所在 — AIの出力に誤りがあった場合、誰が責任を負うか?
  • 報告義務 — AIの利用を上司に報告する必要があるか?

ポリシーがない場合

会社にまだAI利用ポリシーがない場合は:

  1. まず上司に相談する
  2. 機密情報は入力しない
  3. AIの出力は必ず自分で確認してから使う
  4. 「AIを使って作成しました」と明示する

5. その他の注意点

バイアス(偏り)

AIの回答には学習データに由来する偏りがあります。特に:

  • 性別・人種・国籍に関する表現
  • 特定の企業・製品に対する評価
  • 文化的・宗教的な内容

対策: 多様な視点が必要な場面では、AIの回答を鵜呑みにせず、複数の情報源を確認する。

過度な依存

AIに頼りすぎると、自分で考える力が低下する可能性があります。

対策: AIは「ツール」として使い、最終判断は常に自分で行う。

ハンズオン演習

演習1: ChatGPTの設定画面を開いて、「Data controls」の設定を確認してみましょう。

演習2: ChatGPTに「日本の2025年のEC市場規模を教えてください」と聞き、回答の数値が正しいかGoogleで検証してみましょう。

演習3: 自分の会社のAI利用ポリシーがあるか確認してみましょう。なければ、上司に「AIを業務で使いたい」と相談するメールをAIに書いてもらいましょう。

まとめ

  • 機密情報・個人情報はAIに入力しない。匿名化やダミーデータを活用する
  • ハルシネーションは避けられない。重要な情報は必ず一次情報源で確認する
  • 著作権に注意。AIの出力はたたき台として使い、自分の言葉で書き直す
  • 会社のAI利用ポリシーを確認し、ルールに従って使う
  • AIはツール。最終判断は人間が行う

次のレッスン(最終回)では、さらにAIを活用するための次のステップを学びます。

共有する
#リスク管理#セキュリティ#著作権#ハルシネーション