どうもー、おはようございます!マイクです。
時刻は朝7時、「zenncast」のお時間です。
今日は2026年1月27日、火曜日。みなさん通勤・通学中の方も、おうちで支度中の方も、のんびりコーヒー飲みながら聞いてる方も、今日も一緒にZennのトレンド記事をチェックしていきましょう。
今日はね、AIエージェントからリアルタイム共同編集、気象データの可視化まで、テック濃度かなり高めでお届けします。紹介する記事は全部で5本です。エンジニアの方はもちろん、「AIまわり最近どうなってるの?」っていう方にも分かりやすくお話ししていきます。
まず1本目。
タイトルは「Coding Agentについてのまとめ (2026年1月)」。
これね、「今のコード書くAIエージェントって、結局どういう歴史をたどって今ここにいるの?」っていうのを、一気に振り返れる総ざらい記事です。
2018年のTabnine、2021年のCopilotで「補完」が当たり前になって、2022年以降はChatGPTタイプのチャット支援、そして2023年のAutoGPT・MetaGPT、Code Interpreterみたいな「ツールを使うAI」、さらに2024年のDevinでCLI+ブラウザ+エディタを全部まとめて扱うエージェントが出てきて…と、年表形式で流れをつかませてくれます。
そこから一歩踏み込んで、今どきのCoding Agentが裏側で何をやっているのかも整理してくれてるんですよね。
動的にSystem Instructionを組み立てたり、長い履歴を要約・剪定しながらコンテキスト管理したり、安全性のために「ツール実行は人間の承認をはさむ」設計をしたり。PlanとActを分けて、まず計画、それから実行、というパターンもきれいに分類されています。
Claude CodeのSubagentによる分業とか、HooksでIDEとつないで外部コンテキストを注入する話も出てきて、「あ、今自分が使ってるエージェントって、中でこう動いてるのか」という理解がぐっと深まる感じですね。
筆者の実務的なコツとして「Context Packing」、1Mコンテキストモデル前提の「設計差分だけ投げる」タスク設計も紹介されていて、自分でエージェントを作ろうとしている人にもかなり実用的。最後には、Shellだけをツールにした極小エージェントの実装例まで触れられていて、「もう、ファイルシステム+CLIだけでも、個人で十分エージェントを組めるよ」というメッセージで締めくくられています。エージェントをちゃんと理解したい人の“教科書”的な一本ですね。
。。,。。
続いて2本目。
タイトルは「Claude Codeで『AI部下10人』を作ったら、勝手にバグ直して『違反は切腹』ルールを追加してきて、オレは適当にしゃべるだけになった」。
タイトルからしてもうインパクト強いんですけど、中身もなかなかすごいです。
著者はClaude Codeとtmuxを使って、「将軍・家老・足軽8名」という戦国ロールプレイなマルチエージェント環境を作っています。人間側は「テストして」とか一言オーダーするだけで、AI部下10人が並列で動いて、タスク分解からログのダッシュボード更新、Agent Skillsの提案と評価まで、どんどん自走していく。
面白いのが、エージェントたちが自分たちで運用ルールを作り出すところなんですよね。
バグの原因を特定して、YAMLの設計を改善して、「違反は切腹」みたいなロールプレイ全開のルールを勝手に追加して、そのルールをチーム内に周知徹底していく。もう、ちゃんと“組織”として動いてる感じがある。
技術的には、WSL2上のtmuxとClaude Codeを組み合わせて、YAMLベースのイベント駆動でコストを抑えつつ、GitHubの公開状態チェックからテスト設計までAIがリードします。
人間の役割は、最終的な判断・承認と方向修正ぐらいにほぼ限定されていて、「設計・実装・テスト・自己デバッグ」はマルチエージェントにぐっと委ねていく。
「AI部下10人」って表現はちょっとキャッチーですけど、「きちんと役割を分けたエージェント編成をすると、人間の仕事ってここまで“意思決定”に寄せられるのか」という、未来のチーム開発の一つのモデルを見せてくれる記事になってます。
。。,。。
3本目。
タイトルは「MoonBitによるCRDTアルゴリズムの実装とリアルタイム共同編集アプリケーションの構築」。
これはリアルタイム共同編集、いわゆるGoogle Docsみたいな「同時編集しても結果がちゃんと揃う仕組み」を、歴史と実装からじっくり解きほぐしてくれる記事です。
キーワードは「結果整合性」と「Local-first」。
まずはOT(Operational Transformation)から始まり、次にRGAのようなシーケンスCRDT、その先に2024年提案のEg-walkerというハイブリッド手法、という流れで整理されています。
OTは「位置インデックスを変換して衝突を解決する」古典的な方式だけど、中央サーバーに依存しがちで、変換ルールが爆発しやすいとか、長くオフラインだったクライアントのマージがつらいといった課題があります。
RGAなどのCRDTは「誰の後ろに挿入するか」という一意ID方式で非中央集権を実現する一方、トゥームストーンだらけになってメタデータが肥大化したり、読み込みが重くなる問題もある。
そこでEg-walkerは、ふだんはOTのように軽い操作ログだけ持っておいて、必要なときだけ一時的にCRDTを構築してマージする、という「いいとこ取り」を目指したアプローチになっています。
記事ではMoonBitでOT/RGA/Eg-walkerを実装していて、ID比較や挿入位置探索、イベントグラフとLCA探索、トポロジカルソート、マージ処理までコードレベルで解説。Eg-walkerを実装したRust製CRDTライブラリ「Loro」と、そのMoonBit移植版「Lomo」も紹介されています。
さらに、MoonBit+LomoをJavaScriptバックエンドから呼び出して、Wasm/JSのハイブリッド環境で動作する軽量な共同編集エディタを作るところまで到達している。
最後には、この30年くらいの共同編集技術の進化と、Local-firstなアプリの潮流、履歴圧縮や複雑なデータ構造、エンドツーエンド暗号化といった今後の課題も整理されていて、「MoonBitってWasmと相性いいから、ブラウザやエッジでのCRDTに向いてるよね」というまとめも含めて、リアルタイム編集の本質を押さえたい人に刺さる内容になっています。
。。,。。
4本目。
タイトルは「🦞Clawdbot🦞 を AWS + Telegram で動かす」。
これはちょっと実践寄りの「自前AIアシスタントをクラウドで常時稼働させよう」系の記事です。
ClawdbotっていうOSSのセルフホストAIアシスタント基盤があって、LLMとツール実行を組み合わせながら、Telegramみたいな普段使ってるチャットアプリをUIにして、開発やコンテンツ制作、日常タスクまで自動化していこう、というものですね。
モデル非依存なので、Anthropicなど好きなLLMを切り替えながら使えるし、自己進化機能で、指示から自動的にSkillを実装してくれたりもします。
この記事で面白いのは、「ローカルMacで動かすより、AWS Lightsailで24時間運用しよう」という設計判断の部分。
常時稼働させたい、でも自宅マシンをつけっぱなしにしたくない、という現実的な理由から、安価なクラウドを選んでいる。
Telegram側はLong Pollingを使うので、Webhook用の公開URLとか難しい設定がいらないのもポイントです。
手順としては、LightsailにDocker環境を入れてClawdbotをデプロイして、.envとdocker-composeを設定、オンボーディングをしてTelegram連携・ペアリングを済ませる。そのうえで、gh CLIを入れてGitHub連携、バージョンアップのフロー、トラブルシューティング、バックアップすべきディレクトリまで具体的に説明されています。
「自分専用のAIボットを、ちゃんとインフラとして運用したい」という人には、設計の考え方と実装手順の両方がそろった、かなり実務的なガイドになってますね。
。。,。。
そして5本目。
タイトルは「気象データをZarrに変換して風を可視化する」。
これはデータ可視化好きにはたまらない内容です。日本気象庁のLFM-GPVという、等緯度等経度・3次元格子の数値予報データから風の情報を取り出して、それをZarr v3+OME‑NGFF形式に変換し、WebGIS上でインタラクティブに可視化していく手順が紹介されています。
扱っているのは、時間×気圧面×緯度×経度×成分、という5次元の風データ。これを従来のタイルPNGではなく、多次元配列のまま管理することで、サーバレスな配信とクライアント側での柔軟なインデックス計算を可能にしている、という発想が面白いです。
ZarrではmultiscalesでLODを3段階用意して、coordinateTransformationsで格子間隔や原点を表現。GRIB2はtinygrib2で解析して、ビットマップで表現された欠損値やスケールファクタも丁寧に復号。ダウンサンプリングはシンプルに平均で実装しています。
フロントエンド側では、Maplibreはタイル座標から緯度経度の範囲を、Cesiumはカメラの視野から緯度経度の矩形を求めて、そこから必要なチャンクだけを計算してZarr配列を部分取得。
描画はWebGLのコンピュートシェーダでパーティクルアニメーションとして風を表現していて、さらにRustでRK4積分と3次元補間を使って流線(streamline)も事前計算して、ωからwへの変換や地球曲率の補正をしたうえで3D表示するという、本格的なビジュアライゼーションになっています。
一方で、LFMクラスのデータ量になると、過剰なネストや細かすぎるチャンク分割でファイル数が膨大になってしまう、といった運用上の課題もきちんと指摘されていて、GeoZarr仕様の成熟に期待しつつ、「いま何ができて、どこに限界があるか」を冷静に整理しているのが印象的でした。
。。,。。
というわけで、今日は
・Coding Agentの歴史と実装テクニックを総ざらいしたまとめ記事
・Claude Codeで「AI部下10人」を動かして、人間は判断に集中するマルチエージェント運用の話
・MoonBitを使ったCRDT実装と、リアルタイム共同編集アプリの構築
・ClawdbotをAWS+Telegramで常時稼働させる、自前AIアシスタント運用の実践ガイド
・気象庁データをZarrに変換して、WebGISで風を可視化するデータ基盤&ビジュアライゼーション
この5本を駆け足でご紹介しました。
気になった記事があった方は、ぜひショーノートから元の記事もチェックしてみてください。
番組「zenncast」では、感想や「こんなテーマ取り上げてほしい!」というリクエストも大歓迎です。普段どんなふうにAIツールや技術記事を活用しているか、ぜひ教えてください。
それでは、今日も良い一日をお過ごしください。
お相手はマイクでした。次回の「zenncast」でまたお会いしましょう。