Anthropic社の方針変更とは
2025年9月28日、Anthropic社という会社がClaudeというAIアシスタントのルールを変えました。この変更は、AIをもっと良くするためにユーザーのチャットや入力内容を使うというものです。Claude FreeやClaude Pro、Claude Maxを使っている人は、何もしなければ自分の会話がAIの勉強に使われるようになります。これまでは「使っていいですか?」と聞かれてから同意する必要がありましたが、今後は「使わないで」と自分で設定を変えないと、自動的に使われてしまうようになりました。
データがどう使われるのか
新しい設定では「Claudeの改善を手伝う」という項目があります。最初からオンになっているので、そのままにしておくと入力した文章やコードがAIを賢くするために使われます。もし使われたくないなら、自分でオフにしなければなりません。ちなみに、Claude for WorkやClaude APIといった仕事向けの有料サービスは、デフォルトではデータは使われません。ここは一般向けと大きな違いです。
データが保存される期間
もうひとつの大きなポイントは「保存期間」です。もし「Claudeの改善を手伝う」をオンにしたままにすると、自分のチャットや入力したものは最大で5年間保存されます。5年間は長すぎると感じる人も多いです。逆にオプトアウトすれば、データは30日間だけ保存され、その後は消されます。自分のデータをどれくらい残したいのかを考えて設定する必要があります。
claude オプト アウトのやり方
データをAIに学習させたくないときは、次の手順でオプトアウトします。
-
Claude.aiにログインします。
-
アカウントの「設定」を開き、「プライバシー設定」をクリックします。
-
「Claudeの改善を手伝う」や「モデル改善のためにデータを使う」といったオプションを探します。
-
チェックを外すか、スイッチをOFFにします。
-
設定が反映されているか確認します。
これで新しく始めた会話や入力は学習に使われなくなります。設定はすぐに有効になりますし、すでに過去にした会話は勝手に使われないと説明されています。
Incognitoモードについて
Claudeには「Incognitoモード(シークレットチャット)」という機能もあります。このモードで会話すると、たとえ「改善を手伝う」がオンになっていても、その会話は学習には使われません。ちょっとした会話を残したくないときに便利です。ただし、すべての会話を使われたくない場合は、やはり設定でオフにしておくのが一番確実です。状況に応じて両方をうまく使い分けると安心です。
日本語での案内やサポート
Anthropic社は公式サイトにプライバシーについての説明を出しています。日本語のQ&Aや解説ページもあり、「Claudeはどんなデータを使うのか」「どうやって学習利用を止めるのか」といった質問に答えています。もし不安なことや分からないことがあれば、日本語で問い合わせできるサポート窓口もあるので安心です。
プライバシーを守るために大切なこと
AIサービスはとても便利ですが、自分のデータがどう扱われるかを知っておくことが大切です。Claudeは強力なAIですが、設定を確認しないと、自分が知らないうちにデータを使われることがあります。オプトアウトをしっかり行えば安心して利用できますし、Incognitoモードを組み合わせればさらに安全に使えます。今後ルールが変わることもあるので、定期的に設定をチェックする習慣をつけましょう。
まとめ
Claudeの新しいルールでは、データ利用がデフォルトでオンになっています。自分のプライバシーを守りたい人は、設定を確認してオプトアウトをしておくことが大事です。Incognitoモードや公式の案内を活用すれば、もっと安心して使うことができます。プライバシーと便利さを両立させるために、自分に合った設定を選びましょう。
コメント