最近の課題感としてあるのは、手動(Manual)テストをいかに効率的にやるか。

「手動(Manual)」というのはここではすべて人間が逐一操作してテストするということを意味してなくて、自動テストと対の概念になる、アドホックに対象の機能を動かしてみてその動作を実際のユーザーと同じ形で目検で確認する、というような意味で言っている。

そのあたりのことは以前 X に書いた。

X ユーザーの Naoyuki Yamada - 2026/1/19 に紀伊國屋書店新宿本店で書籍イベントさん: 「>Manual testing skills are genuine skills that you need to develop 手動テストをスキルとみなして育てていく必要がある、そのとおりだな これを軽視してたことが今一つエンジニアとしてのレベルが上がらない要因の一つだと思った https://t.co/uZfalpkg1h」 / X

X ユーザーの Naoyuki Yamada - 2026/1/19 に紀伊國屋書店新宿本店で書籍イベントさん: 「手動というと翻訳がよくないが、自分の目で実際に動くことを確認すること。自動テストはもちろん必要だけど Manual Testing をいかにうまくやるかも、実装対象を本質的に理解するために必要なスキルだと思った」 / X

これまでは自動テストで実行して PASS したから OK、としがちだったけど、テスト自体も自動生成していることもあって、対象の機能に対する理解が浅いままテスト生成して通ったから OK、みたいにしてる自分に気づいた(実際自動テストの対象に漏れがあってデグレしたりしていた)。自動テストも手動テストも両方バランスよく必要ということ。

とはいえ手動テストを全部自分の記憶に頼って毎回 1 からやろうとすると時間がかかってしょうがないので、LLM の力を借りてやろうとしている。具体的には claude code で playwright mcp で chrome でブラウザ操作させてテストしていく。でそれを自分も注視しながら動作を確認していく。

そしてそれを一通りやったら SKILL としてまとめなおして、SKILL を改善していく。

そういうサイクルを回していてけっこう良い感触がある。claude code + playwright mcp が賢くなっている気がしていて、逐一すべてを指示しなくてもよしなにブラウザ操作してくれる範囲が増えていっている気がしている。