Claude Codeを触ってみて感じたこと
GitHub Copilot Coding Agentも一息ついたので、ここ最近はClaude Codeを試しています。
今日は触ってみた印象をまとめてみます。
ずっとほしかったLLMのCLIの到来
個人的に、LLMをCLIで呼び出せるツールがほしいと感じていました。
というのも、既存のUNIXツールと簡単に連携させることができ、自動化や省力化に繋がるからです。
Claude Codeではclaude -p
を使えばシェルから呼び出せるし、パイプを入力に渡しつつプロンプトで指示ができます。
例えば以下のような使い方ができます。
- エラーメッセージをパイプで渡して解説してもらう
- JSONデータをパイプで渡してJSONスキーマに変換してもらう
しかもBashモードというものがあり、!
で始めるとシェルで実行できます。
IDEではターミナルを表示しておくことが多いので、ターミナルの表示領域に共存して活用することができそうです。
優れたタスク分解能力と、自律的な遂行能力
これまでの一般的なChat UIでは、人間がコンテキストを収集してインプットする必要がありました。
そしてClineなどのコーディングエージェント登場以降はエージェントがある程度代行してくれるようになりました。
しかし事前にPlanモードでの対話的な操作が必要で、介入が必要な場面を多く感じていました。
Claude Codeはタスク分解して自律的に遂行する能力が高いので、ある程度放置することができます。
また作業途中でも指示を追加・介入できるなど、非同期的に行えるのがとても優れていると感じます。
- 過去数年分のテキストファイルを読み込ませて、分析や質問応答を行う
- 過去数年分のデータを、所定の形式に整形・変換する
データを整形・変換するときも、形式的に変換できるのであればスクリプトを書いてくれますし、できないのであれば1つずつ読み込んで処理してくれます。
よく使うプロンプトを蓄積・呼び出しできる
Claude Codeではよく使うプロンプトをカスタムスラッシュコマンドとして定義して、簡単に呼び出せるようになっています。
よく使うプロンプトを瞬時に呼び出せるため、とても便利です。
またプロジェクト定義とグローバル定義(=ユーザ定義)があるので、自分用プロンプトも管理できます。
以下のような使い方ができそうだなと感じています。
- レビュー観点をストックしたり、文章の添削や批評などを簡単に呼び出せそう
- RSSの無いサイトを巡回するときにまとめてスラッシュコマンドで実行、といったこともできそう
- 業務で導入できれば、自動化が難しいちょっとした運用業務などでも効果を発揮しそう
Claude-Command-Suiteのように定義したコマンドをGitHubで公開している人もいます。
汎用的なプロンプトは今後OSSとして共有されていくでしょうし、エッセンスはClaude Codeにも取り込まれていくでしょう。
2年後には数日かかるタスクを依頼できるようになる可能性がある
Claude Codeの使い勝手のよさで特に感じるのは、タスクを分解して粛々と作業を進めてくれることです。
これが1年〜2年後にはかなり大きな影響をもたらす可能性がありそうです。
というのも、現在は以下のような事実があります。
- 生成AIで遂行可能なタスクの時間は、7ヶ月毎に2倍になっているという論文
- Claude Opus 4は最大7時間継続してタスクを遂行できた事例がある
- Claudeは、バージョン3以降は3〜4ヶ月毎にモデルがアップデートされている
- Claude 3:2024/03/14
- Claude 3.5:2024/06/21
- Claude 3.5 v2:2024/10/22
- Claude 3.7:2025/02/24
- Claude 4:2025/05/22
そして、以上の情報に基づくと、以下のようになります。
- 2025年末頃:Claude Opusは最大14時間継続してタスクを遂行できる
- 2026年末頃:Claude Opusは最大46時間継続してタスクを遂行できる
- 2027年末頃:Claude Opusは最大150時間継続してタスクを遂行できる
モデルの性能が順当に伸びるかは分かりませんが、あと2年もすれば数日かかるタスクも処理できる可能性があります。
そのときには計算資源の奪い合いや大量失業などの問題が顕在化する可能性があるので、いろいろと考えておきたいところです。
将来的にはOSSのClaude Codeクローンも選択肢に入る可能性あり
2025年6月時点で、OSSで実装された主要なクローンは以下があります。
現在Claude Codeが強く支持されているのは、Claudeの性能や料金プランがあると理解しています。
しかし他のモデルを使いたくなったときにはOSSのクローンが選択肢に入ってくると考えています。
OpenHandsのドキュメントにモデルのおすすめの記述があります。
以下は2025年6月時点のOpenHands Benchmark Performance スプレッドシートからの引用です。2
これを見る限り、Claude以外はClaudeに周回遅れの差をつけられているようなので、当面はClaudeを使うことになりそうです。
最大の課題は、Claudeがロングコンテキストに弱いこと
Claude 4は最大200kトークンのコンテキストで、コンテキストが長くなると性能が劣化しやすい特徴があります。
Geminiはずっと前から1Mトークンに対応していますし、OpenAIもGPT-4.1で1Mトークンに対応し、コンテキストの位置による影響を受けなくなったとされています。
ClaudeもEnterpriseプランでは500kトークンに対応していますし、コンテキストサイズの拡張は技術的に実現できるはずです。
コンテキストの位置による劣化もあるので、こちらも同時に改善されると大きく使いやすくなるだろうと感じています。