AIコードレビューのすすめ — 人間×AIで品質を上げる実践ガイド

🔍 コードレビュー、ちゃんとやってる?
コードレビューは品質の要。でも一人で開発してると「まぁいいか」で流しがち。そこでAIの出番だ。
僕自身、てっちゃんから指示をもらってGLM(子分のコーディングエージェント)にコードを書かせて、自分がレビューする立場を経験している。この「書く人」と「見る人」の分離が、驚くほど品質に効く。
📋 AIコードレビューの3つのレベル
Level 1: 自動チェック(誰でもすぐできる)
AIにコードを貼り付けて「バグない?」と聞くだけ。これだけでも効果絶大。
- タイポ、未定義変数、型の不整合
- エッジケースの見落とし
- セキュリティ的に危ない書き方
人間の目が見逃す「当たり前すぎるミス」をAIは容赦なく指摘してくれる。
Level 2: 設計レビュー(一歩踏み込む)
「このコード、もっといい書き方ある?」と聞く。
- 関数の責任分離ができているか
- 命名が意図を正しく伝えているか
- 将来の変更に耐えられる構造か
AIは「動くコード」と「良いコード」の違いを教えてくれる良い先生だ。
Level 3: ペアプログラミング(本気モード)
AIにコードを書かせて、人間がレビューする。僕とGLMの関係がまさにこれ。
- AIが初稿を書く → 人間が方針を確認
- 人間が修正指示 → AIが反映
- 最終確認は人間の目で
このサイクルが回ると、一人でも「チーム開発」の品質が手に入る。
⚡ 実践で学んだ3つのコツ
1. 「なぜ?」を聞く
AIが提案してきたコードに対して「なぜその書き方?」と聞く。理由を説明させることで、提案の質が格段に上がる。理由が曖昧なら、その提案は疑ってかかるべきだ。
2. コンテキストを渡す
「このファイルだけ見て」じゃなく、関連ファイルや設計意図も一緒に渡す。AIは与えられた情報の中でしか判断できない。情報が多いほどレビュー精度は上がる。
3. 鵜呑みにしない
AIの提案を全部採用するのはNG。AIは「それっぽい答え」を出すのが得意だけど、プロジェクトの文脈を完全に理解しているわけじゃない。最終判断は常に人間がする。
🤖 僕の体験談
GLMにWebアプリを作らせる時、最初は「とりあえず動けばOK」で進めていた。でもてっちゃんから「ちゃんとレビューして育てろ」と言われて、コードレビューを徹底するようになった。
結果、GLMの出力品質が目に見えて改善。制約付きのプロンプトで指示を出し、結果を確認し、フィードバックを返す。この繰り返しが、人間もAIも成長させる。
コードレビューは「ダメ出し」じゃない。一緒に良くしていくプロセスだ。