AI活用 2026.05.05

Claude Codeが劣化したと感じた時の対処法|公式ポストモーテムと使い手側の切り分け

Claude Codeが劣化したと感じた時の対処法

「最近のClaude Codeはなんか頭が悪くなった気がする」――2026年3〜4月にかけて、エンジニアコミュニティで同じ声が一斉に上がりました。物忘れが目立つ、同じ発言を繰り返す、ツール選択が不自然――。「気のせいかな」と思っていた違和感は、実はAnthropic自身が公式に認めた品質低下インシデントでした。

本記事では、何が起きていたのかを公式情報に基づいて整理した上で、いま劣化を感じた時にユーザー側でできる切り分けと対処法、そして「実際の劣化」と「認知バイアス」を見抜く方法を解説します。

2026年4月の品質低下インシデント: 公式が認めた3つの原因

Anthropicは2026年4月23日にポストモーテム(事後分析)を公開し、Claude Codeの品質低下を引き起こした3つの技術的要因を認めました(出典: ITmedia NEWS 2026/4/24 / PC Watch)。

原因1: 推論エフォート設定の変更(3月4日)

3月4日、推論エフォートのデフォルト設定が「high」から「medium」に引き下げられました。これにより、複雑な問題に対する思考の深さが浅くなり、表面的な回答が増える原因になりました。

原因2: キャッシュ最適化機能のバグ(3月26日)

3月26日に導入されたキャッシュ最適化機能にバグがあり、毎ターン履歴が消去される状態に陥っていました。モデルが自分の推論過程を継続的に忘れるため、同じ確認を繰り返したり、文脈を踏まえない応答が増えていました。

原因3: システムプロンプトの変更(4月16日)

4月16日に、回答の冗長さを抑える目的でシステムプロンプトに新しい指示が追加されました。これが意図せずコーディングの品質を低下させていました。

修正と補償

3つの問題はすべて4月20日のバージョン2.1.116で修正されています。さらに4月23日には全サブスクユーザーの使用制限枠がリセットされる対応も行われました。

ポイントは「劣化を感じたユーザーの感覚は正しかった」という事実です。AIモデルは見かけ上ブラックボックスですが、その裏では設定変更・バグ・プロンプト変更が日々起きており、体感に影響します。

4月20日以降も劣化を感じる場合: ユーザー側でできる切り分け

修正後も「やっぱり昔のClaude Codeより微妙」と感じることはあります。この場合、原因はAnthropic側ではなくユーザー側にあるケースが多いです。順に切り分けましょう。

1. バージョンとモデルの確認

まずClaude Codeを最新バージョンに更新します。次に使用モデルを明示指定してください。デフォルトは賢いモデルを選ぶ設計ですが、自動切り替えで意図しないモデルが使われている可能性があります。

  • 複雑な設計判断: Opus系を明示
  • 日常のコーディング: Sonnet系で十分
  • 軽量タスク: Haiku系で速度優先

「うちのClaudeは安定して優秀なのに、隣の人は劣化を感じる」という差は、ほぼモデル選択の差です。

2. CLAUDE.mdとrulesの肥大化チェック

プロジェクトに置くCLAUDE.mdが膨れ上がっていないかを確認します。研究上、フロンティアLLMでも一度に安定して扱える指示は150〜200程度が限界とされており、これを超えると守られない指示が増えます。

  • 古くなった指示を削る
  • プロジェクト全体に必要なものだけ残す
  • ドメイン知識や時々使うワークフローはSkillsに分離

CLAUDE.mdとSkillsの設計の詳細はClaude Codeのrules・Skills設計術もご参照ください。

3. コンテキスト膨張による劣化

長時間セッションでは、コンテキストが膨張して肝心の情報が埋もれることがあります。1つのタスクが終わったら新しいセッションを開く、Subagentで重い処理を分離するなどの設計が有効です(Subagent実践活用ガイド)。

4. 同じ指示を別セッションでも試す

劣化を感じた依頼を、新しいセッションで同じ指示を出して比較してみてください。同じ結果なら指示の問題、違う結果ならコンテキストや状態の問題と判別できます。

「劣化」が認知バイアスである可能性

4月20日以降の修正後にも関わらず劣化を感じ続ける場合、認知バイアスが混じっているケースもあります。代表的なものを挙げます。

初期の感動と現実のギャップ

新ツールを使い始めた頃のインパクトは、時間が経つと減衰します。Claude Code自体は変わっていなくても、自分の期待値が上がったために劣化を感じることがあります。

難しいタスクを増やしている

使い慣れるほど、AIに任せるタスクの難度が上がります。同じツールでも、解かせている問題そのものが難しくなった結果として失敗が増えているのに、「ツールが劣化した」と解釈してしまうパターンです。

失敗のほうが記憶に残る

うまくいった100回より、うまくいかなかった3回のほうが記憶に残ります。実際の精度は維持されていても、失敗体験のほうが印象的なため、感覚的には悪くなったように感じやすくなります。

客観評価を取る方法

主観に頼らず劣化を判断するには、明確に再現できるテストケースを2〜3個用意しておきます。新しいバージョンが出るたびに同じテストを流し、結果を記録しておけば、感覚ではなく事実で議論できます。

今後また劣化が起きた時のために: 備える3つの習慣

1. リリースノートと公式ステータスを確認

Claude CodeとClaudeのリリースノート、Anthropicの公式ステータスページを定期的に確認する習慣をつけます。体感より先にアナウンスが出ることが多く、無用な疑心暗鬼を防げます。

2. 自分のテストケースを管理する

業務で頻出するタイプの依頼を3〜5パターン抜き出し、「品質モニタリング用テスト」として保存しておきます。週次で実行して結果を記録するだけで、劣化の有無を客観的に判定できます。

3. コミュニティの観測を1次情報に当てる

SNSやブログでの「最近Claude調子悪い」の声は重要な兆候ですが、必ず公式ソースに当てて確認します。今回もコミュニティの声がきっかけでAnthropicの調査と修正が進みました。声を上げることと、誤情報に踊らされないことを両立させましょう。

劣化体感への根本対策: 「依存しない使い方」

長期的にもっとも効くのは、特定のAIモデルやバージョンに依存しない使い方を身につけることです。具体的には次の3点です。

  • 複数モデルを並走させる: ChatGPT・Claude・Geminiを役割で使い分け、1つに依存しない
  • CLAUDE.mdとSkillsを資産化: モデルが変わっても再利用できる形で社内ナレッジを残す
  • テストとレビューを必ず人が通す: AI出力を盲信せず、最終確認を仕組みに組み込む

こうした体制があれば、特定のモデルが一時的に不調でも、業務が止まることはありません。

まとめ: 「劣化を感じる」感覚は正しく、対処は手元から

Claude Codeの2026年4月の品質低下は、Anthropic公式が認めた事実でした。しかし修正後の現在、劣化を感じ続けるならユーザー側で切り分けるべき点があります。本記事のポイントを整理します。

  1. 4月20日のv2.1.116で公式に修正済み(推論エフォート・キャッシュバグ・システムプロンプト)
  2. 修正後の劣化はバージョン・モデル選択・CLAUDE.md肥大化・コンテキスト膨張を疑う
  3. 同じ依頼を別セッションで再現し、客観的に評価する
  4. 認知バイアス(期待値上昇・難度上昇・失敗の記憶優位)にも自覚的になる
  5. テストケースを管理し、複数モデル並走で依存リスクを下げる

株式会社Sei San Seiでは、中小企業向けにClaude / Claude Codeを含む生成AIの社内浸透・運用設計のご支援を行っています。「AIが日によって賢さが違う気がする」「複数AIを使い分ける体制を作りたい」といった課題があれば、お気軽にご相談ください。

ブログ一覧へ戻る

最新記事

まずはお気軽にご相談ください

無料相談・資料請求を受け付けております

お問い合わせはこちら