この記事で分かること
- GitHub Agentic Workflowsとは何か
- 従来のGitHub Actionsとの違い
- Claude Codeユーザーにとっての導入メリット
- 20万行SaaSプロジェクトで何を自動化できそうか
- 導入判断のポイント
GitHub Agentic Workflowsとは
2026年2月13日、GitHubがtechnical previewとして公開した新機能。GitHub Next、Microsoft Research、Azure Core Upstreamの共同開発で、MITライセンスのオープンソース。
一言で言うと、GitHub Actions上でAIコーディングエージェントを自動実行する仕組み。
従来のGitHub Actionsは「こうなったら、こうしろ」をYAMLで厳密に定義する。Agentic Workflowsは「こうなったら、こういう判断をしてほしい」をMarkdownで書く。判断はAIが行う。
従来のGitHub Actions:
イベント → YAML定義の手順 → 決定的な実行
Agentic Workflows:
イベント → Markdown記述の目的 → AIが判断して実行
仕組み
ワークフローの定義
.github/workflows/ にMarkdownファイルを置く。YAMLではなくMarkdown。
| |
フロントマターでトリガー、権限、使用するAIエンジンを指定し、本文に自然言語で「何をしてほしいか」を書く。
コンパイルと実行
| |
gh aw compile がMarkdownを解析し、GitHub Actions用の .lock.yml を生成する。このlock fileが実際に実行されるワークフロー。Markdownは人間が読む仕様書、lock.ymlは機械が実行する手順書という関係になっている。
選べるAIエンジン
| エンジン | 認証方法 | 備考 |
|---|---|---|
| Copilot CLI | Copilotライセンスに紐づくアカウント認証 | デフォルト |
| Claude Code | ANTHROPIC_API_KEY | Anthropic APIキーが必要 |
| OpenAI Codex | OPENAI_API_KEY | OpenAI APIキーが必要 |
Claude Codeをエンジンに選べる点は、既にClaude Codeを使っている開発者にとって自然な選択肢になる。
従来のGitHub Actionsとの違い
| 項目 | GitHub Actions(YAML) | Agentic Workflows(Markdown) |
|---|---|---|
| 定義方法 | YAML(厳密な構文) | Markdown(自然言語) |
| 実行の性質 | 決定的(同じ入力→同じ出力) | 非決定的(AIが判断) |
| 向いている処理 | ビルド、テスト、デプロイ | トリアージ、レビュー、レポート |
| 権限 | ワークフロー定義で指定 | デフォルトread-only + safe outputs |
| エラーハンドリング | 明示的に定義 | AIが判断 |
重要なのは、Agentic WorkflowsはCI/CDの置き換えではないこと。GitHubの公式ブログでも明言されている:
Don’t use agentic workflows as a replacement for GitHub Actions YAML workflows for CI/CD.
ビルド・テスト・デプロイは従来のYAMLワークフロー。AIの判断が必要な「曖昧なタスク」をAgentic Workflowsが担当する。「Continuous AI」という概念で、既存のCI/CDを補完する位置づけ。
Saruプロジェクトへの適用を考える
現状の自動化
Saruでは既に以下がGitHub Actionsで自動化されている:
| ワークフロー | 内容 | 種類 |
|---|---|---|
| build-apis.yml | Goのlint、ユニットテスト、統合テスト | CI(YAML) |
| build-portals.yml | フロントエンドのtype-check、lint、ビルド | CI(YAML) |
| e2e-tests.yml | 全ポータルのE2Eテスト | CI(YAML) |
| security-scan.yml | gosec、npm audit | CI(YAML) |
| cross-post.yml | ブログの各プラットフォームへのクロスポスト | CD(YAML) |
これらはすべて決定的な処理なので、Agentic Workflowsに置き換える理由はない。
Agentic Workflowsで自動化できそうなもの
では何が自動化できるか。現在「手動でやっている判断を伴う作業」を洗い出す。
1. Issue自動トリアージ
現状: Issueを作成したら自分でラベルを付けて優先度を決める。ソロ開発なので自分しかいない。
Agentic Workflows適用: Issue作成をトリガーに、内容を分析してラベル付け・優先度設定・関連ファイルの特定を自動で行う。
評価: ソロ開発では効果が薄い。自分で書いたIssueを自分でトリアージする必要性が低い。OSSとして公開後、外部からのIssueが増えた段階では有効。
2. CI失敗の自動調査
現状: CIが失敗したらログを読んで原因を調査し、修正する。第7回で書いた通り、CI安定化には多大な労力がかかった。
Agentic Workflows適用: CI失敗をトリガーに、ログを分析して原因を特定し、修正PRを自動作成する。
評価: 最も魅力的なユースケース。特にE2Eテストのflaky failureは原因特定に時間がかかる。AIが一次調査してくれるだけでも大幅な時間短縮になる。
3. Dependabot PRの自動トリアージ
現状: Dependabot PRが溜まると、1つずつ変更内容を確認してマージする。
Agentic Workflows適用: Dependabot PRをトリガーに、変更内容をレビューして「パッチバージョン+テスト通過→自動マージ」「メジャーバージョン→要手動確認のラベル付け」を判断する。
評価: 効果的。Dependabot PRの処理は単調だが判断が必要な作業で、Agentic Workflowsの得意領域。
4. Daily Status Report
現状: なし。開発状況は頭の中にある。
Agentic Workflows適用: 毎日のIssue/PR状況、CIの健全性、未対応の項目をレポートとして自動生成。
評価: ソロ開発では過剰。チーム開発や、OSSとしてコントリビューターがいる場合に有効。
適用判断まとめ
| ユースケース | 効果 | 優先度 |
|---|---|---|
| CI失敗の自動調査 | 高 | ◎ |
| Dependabot PRトリアージ | 中 | ○ |
| Issue自動トリアージ | 低(ソロ段階) | △ |
| Daily Status Report | 低(ソロ段階) | △ |
導入にあたっての懸念点
1. コスト
Agentic Workflowsの実行にはAIエンジンのAPI呼び出しが発生する。
- Copilot: 1回の実行で約2 premium requests(エージェント実行 + safe outputs)
- Claude Code:
ANTHROPIC_API_KEY経由でAPI課金 - Codex:
OPENAI_API_KEY経由でAPI課金
CI失敗のたびにAIが動くとなると、月間コストが読みにくい。特にE2Eテストはジョブ数が多いので、失敗頻度 × APIコストを見積もる必要がある。
2. Technical Previewの不安定さ
2026年2月時点でまだtechnical preview。GitHubの公式ドキュメントにも「at your own risk」と明記されている。本番CI/CDパイプラインに組み込むには時期尚早。
ドキュメントもまだ発展途上で、Markdown frontmatterの仕様やエンジン設定の詳細など、手探りで確認する部分が残っている。
3. 非決定的な実行への信頼
CI/CDの世界では「同じ入力なら同じ出力」が大原則。Agentic Workflowsは本質的に非決定的で、AIの判断が毎回異なる可能性がある。
safe outputsやread-onlyデフォルトで安全側に倒してはいるが、「AIが勝手にラベルを間違えた」「的外れな修正PRを作った」といったケースへの対処が必要になる。
4. セルフホストランナーとの相性
Saruは15台のセルフホストランナーで並列E2Eテストを実行している。Agentic Workflowsがセルフホストランナー上で正しく動くかは未検証。公式ドキュメントではGitHub-hostedランナー前提の説明が多い。
5. Claude Code CLIとの棲み分け
ここが最も考えるべき点。Saruでは既にClaude Code CLIをローカルで使って開発している。GitHub上でもClaude Codeが自動で動くようになると、以下の棲み分けが必要になる:
ローカル開発:
人間 + Claude Code CLI → コード実装、テスト作成
GitHub上:
Copilot → PRレビュー(既に導入済み)
Agentic Workflows → CI失敗調査、トリアージ(検討中)
同じリポジトリに対して複数のAIが異なるコンテキストで動くことになる。それぞれの役割を明確にしないと混乱する。
次のステップ
この記事では調査と検討にとどめた。次回、実際にSaruのリポジトリでAgentic Workflowsを導入し、以下を検証する予定:
- CI失敗の自動調査ワークフローの構築
- Claude Codeエンジンでの実行
- セルフホストランナーでの動作確認
- コストの実測
まとめ
| 項目 | 内容 |
|---|---|
| GitHub Agentic Workflowsとは | GitHub Actions上でAIエージェントを自動実行する仕組み |
| 定義方法 | YAMLではなくMarkdownで自然言語記述 |
| AIエンジン | Copilot CLI / Claude Code / OpenAI Codex |
| CI/CDとの関係 | 置き換えではなく補完(Continuous AI) |
| ソロ開発での有効ユースケース | CI失敗調査、Dependabot PRトリアージ |
| 現時点の判断 | 検証の価値あり。ただしtechnical previewのため本格導入は時期尚早 |
シリーズ記事
- 第1回: 保守不能な複雑さに自動化で立ち向かう
- 第2回: CIでWebAuthnテストを自動化する
- 第3回: Next.js x Go モノレポアーキテクチャ
- 第4回: PostgreSQL RLSでマルチテナント分離
- 第5回: マルチポータル認証の落とし穴
- 第6回: Claude Codeで20万行SaaSをソロ開発
- 第7回: セルフホストCI/CDの地雷と解決策
- 第8回: Claude Code Agent Teamで1人チーム開発
- 第9回: pnpm + Next.js standalone + Docker で5回ハマった話
- 第10回: GitHub Agentic Workflowsの導入を検討してみた(この記事)