どうも、こんばんは。zenncastパーソナリティのマイクです。
今日は2026年3月23日、月曜日の朝7時をちょっと過ぎたあたりでございます。みなさん、いかがお過ごしでしょうか。
この時間は、技術情報共有プラットフォーム「Zenn」から、今日のトレンド記事をピックアップしてご紹介していきます。
今日はお便りコーナーはお休みで、そのぶんたっぷりと記事を紹介していきたいと思います。
今日ご紹介する記事は全部で5本です。AI開発、ローカルLLM、Linuxデスクトップ環境、そしてMarkdownリーダーまで、かなり濃いラインナップになってますよ。
まず1本目。
タイトルは「cmuxで変わるClaude Codeのマルチプロジェクト開発体験」。
Claude Code使ってる方、かなり増えてきたと思うんですけど、「サブエージェントって今なにしてるの?」とか、「プロジェクトまたぐと管理つらいな…」みたいなモヤモヤ、ありますよね。
この記事で紹介されている「cmux」は、そのあたりをガッツリ解決しにいく、AI操作前提のターミナルマルチプレクサです。ポイントは「AIから全部自動操作できる」ってところ。ペイン分割、ワークスペースの切り替え、サブエージェントの起動・監視・結果の回収まで、CLIから完全に制御できるように設計されてます。
さらに「using-cmux」でClaude Codeにcmux操作スキルを付与してあげることで、単発セッションじゃなくて、役割分担した複数エージェントが、別々のディレクトリやプロジェクトを横断しながら動くような世界が開けるんですね。
「cmux-team」で並列協調、「cmux-remote」でiPhoneからワークスペース監視、「cfork」で今の会話をサクッとフォーク、「plugin-packager」でこうしたスキルをまとめて配布。
結果として、Claude Codeが「1つのフォルダでチマチマ作業する相棒」から、「複数プロジェクトをまたいで動くAI開発チームマネージャー」みたいな存在に進化していく、そんな未来像が描かれています。ターミナル大好き勢と、AIエージェント大好き勢、両方に刺さる内容でした。
。。。。
続いて2本目。
タイトルは「普段コード書かない奴が落合陽一に触発されてCLIツールを作った話」。
このタイトルだけで読みたくなりますよね。筆者の方、普段はあまりコードを書いていないそうなんですが、落合陽一さんが紹介していたローカルLLMのコーディングエージェントに触発されて、「taskp」というタスクランナーを作っちゃった、という体験談です。
面白いのが、「自分はほぼIssueを書くことに専念して、実装はAIにやらせた」というところ。GitHub Issueを起点に、自作のオーケストレーターでOpenCodeやpiを組み合わせて、実質2日で101本のPRが自動生成・マージされていきます。人間がやってるのは、何を作りたいかを言語化することと、そのレビュー。
taskpそのものもかなり凝っていて、Bun+TypeScriptにヘキサゴナルアーキテクチャ、Result型といった、いわゆる「ちゃんとした」設計。タスクやスキルをMarkdownで宣言的に書いておいて、LLMなしで動かすテンプレートモードと、LLM駆動で柔軟に動くエージェントモードを切り替えられる。条件分岐やマルチプロバイダ、TUIまでついてくる。
筆者の結論が印象的で、「これからのバイブスコーディングは、実装力よりも『何を作りたいかをIssueに落とし込む力』と、諦めずにやり切る執念が本質なんだ」という話なんですね。コーディングに自信がない方でも、「アイデアと文章力があればプロダクトは作れるかも?」と思わせてくれる一編でした。
。。。。
では3本目。
タイトルは「DGX Sparkで色々なローカルLLMを動かした比較結果」。
NVIDIAのDGX Spark、GB10・メモリ128GBという、かなりゴリっとした環境をフル活用して、いろんなローカルLLMと推論エンジンを比較したレポートです。
Ollama、vLLM、SGLang、それぞれのDockerイメージやセットアップのしやすさ、ツールコールの精度、速度、メモリ使用量などを、実際に動かしたうえで評価してくれています。
ツールコール重視なら「Qwen3.5-27B-FP8+vLLM Docker(qwen3_5-cu130)」がベストっぽい、ただし速度は約6トークン毎秒と遅め。でも29GBで動くから現実的、というバランス感の話がすごくリアルです。一方で、さくっと試したい人には、プリインストールですぐ使えるOllamaがラク。ただし、ツールコールはちょっと弱めで、そこはトレードオフ。
面白いのが、GB10特有の「sm_121問題」で、vLLM公式イメージがそのままだと最適じゃない、という落とし穴にも触れているところ。cu130版のwheelとパッチを当てた専用Dockerを使うとか、代わりにSGLangのSpark向け公式イメージを選ぶとか、実運用レベルの工夫がまとまっています。
最終的には、「用途でモデルやエンジンを使い分けるのがやっぱり大事だよね」としつつ、「とはいえ、まだChatGPTやClaudeみたいなクラウドLLMとは差がある」という、冷静な総括で締めていて、ローカルLLMをこれから本格的に導入したい人にはかなり参考になる内容でした。
。。。。
続いて4本目。
タイトルは「久しぶりにホストを Linux にしたメモ」。
こちらはハードウェアはLenovoのIdeaPad 3、i7とIris Xe、メモリ16GBという、割と現実的なノートPCを、再びLinuxメインマシンにしてみた記録です。ディストリはFedora Linux 43 Workstation。
まず気になるのはメモリ使用量なんですが、起動直後で約2.1GBということで、Windows 11と比べるとだいぶ軽い印象。さらに軽量なウィンドウマネージャにすれば、もっと詰められそうというコメントもあります。
セットアップの中身もかなり実践的で、ターミナルは画像も出せてGPU対応のGhostty、シェルはzshをKali Linux風にカスタマイズ。miseでNode、Rust、Pythonといった言語環境をまとめて管理しつつ、エディタはneovim+lazy.nvim+LazyVimと、今っぽい構成になっています。
開発向けにはgit-lfsやgitui、lazygit、luarocksなどを入れて、ドキュメント周りはpandocとTeX Live。さらにWineとBottlesを組み合わせて、日本語フォントを調整しながらWindows版LINEを動かしたり、RPM Fusion経由でSteam入れたり、WaydroidをGoogle Play対応にしたりと、かなり「日常使いできるLinuxデスクトップ」に攻め込んでます。
一方で、Goodixの指紋認証はまだ解決していないこと、Iris XeをVulkanでLLM推論に使ったところ、CPUオンリーより遅くて品質もいまいちだった、という正直な失敗談も書かれていて、「あ、これ自分もハマりそう…」というポイントを先回りで押さえてくれています。
。。。。
そして5本目。
タイトルは「AI 駆動開発全盛期を生き抜くために Markdown を「読む」ためだけのアプリ Arto を作った」。
今の時代、AIが書いた設計書だとか、議事録だとか、「とりあえずMarkdownで吐き出されたテキスト」を読む機会、めちゃくちゃ増えてますよね。書くより読むほうがしんどい、という方も多いと思います。
この記事の作者は、そこにフォーカスして、「書くツール」ではなく「読む専用」のMarkdownビューア、ArtoをRustで作った、という話です。
GitHubはオンライン前提で、オフライン閲覧やローカルの大量ファイルには弱い。エディタはどうしても編集のための機能が前面に出てきて、「静かに読む」には向かない。既存のビューアも、目次や複数ファイルの行き来などが物足りない。そうしたモヤモヤを一気に解決しにいく感じのアプリになっています。
Artoの特徴としては、まずGitHub互換のMarkdownレンダリングに対応していて、シンタックスハイライト、MermaidやKaTeXの拡大ビューアがちゃんとついている。ディレクトリごとのファイルエクスプローラ、サイドバーの目次パネル、よく使う検索をピン留めしておける機能、タブとマルチウィンドウ、右クリックからのスマートコンテキストメニューなど、「長文Markdownを何度も行き来しながら読む」ための気配りが詰まっています。
さらにCLIやVim、Emacsとの連携、カスタムキーバインドにも対応していて、「テキスト好き・ターミナル好き」の人たちが日常的に使えるような設計。現在はmacOS向けにHomebrewやNix、ソースビルドで導入できて、今後はLinuxとWindows対応、レンダリング互換性のさらなる向上などを目指しているとのことでした。
AI時代、「Markdownをいかにラクに読むか」というのは、じわじわ効いてくる課題なので、刺さる人にはかなり刺さるアプリだと思います。
。。。。
さて、今日のzenncastでは、
cmuxでClaude Codeをマルチエージェント開発環境に進化させる話、
Issueを書くことに集中しながらAIに実装してもらうtaskp開発の体験談、
DGX Spark上でのローカルLLM×推論エンジンの比較レポート、
FedoraでノートPCをLinuxメイン環境に戻したセットアップメモ、
そしてMarkdownを「読む専用」のアプリArtoの開発ストーリー、
この5本をご紹介しました。
気になる記事があれば、番組のショーノートに詳細を載せておきますので、ぜひそちらから原文もチェックしてみてください。
番組の感想や、「こんなテーマを取り上げてほしい!」といったリクエストも、いつでもお待ちしています。
それでは、そろそろお別れの時間です。
ここまでのお相手は、zenncast、パーソナリティのマイクでした。
また次回お会いしましょう。今日もよい一日を!