どうもこんばんは、マイクです。FMラジオ「zenncast」、今日もお付き合いありがとうございます。今日は2026年5月9日、土曜日の朝7時台ということで、そろそろ一息つきながら耳だけラジオ、ちょうどいい時間じゃないでしょうか。今日もZennで話題になっているトレンド記事を、ゆるっと、でも中身はしっかりめに紹介していきたいと思います。
今日はね、全部で5本の記事をご紹介します。AI時代のUIデザイン、育休中でも賢くなり続ける情報収集、TDDでバグと向き合う話、手元のPCで巨大LLMを動かすチャレンジ、そしてマルチレポ時代の「AIに地図を渡す」リポジトリ設計まで、かなりバラエティ豊かです。それぞれ、AI時代をどうやって自分ごとにしていくか、っていう共通のテーマが見えてくる内容なので、気になるところだけでも耳を傾けてみてください。
まず1本目。「AIにUIを作らせる前に、デザインの土台を自分で決めるツールを作った」という記事です。これ、発想がすごく今っぽいんですよね。AIにUIデザインを丸投げするんじゃなくて、その前に「デザインハーネス」と呼ばれる、UIの骨格になる少数の基礎値を、人間側でちゃんと決めてあげよう、というお話です。フォント、余白、角丸、影、色。この5つを、Typography/Spacing/Radius/Shadow/Colorの5ステップで、画面を見ながらポチポチ選んでいくと、それをもとに一気にデザイントークンが派生してくれるツール「pre-design-md」を作ったそうです。おもしろいのは、出力先がいくつか用意されていて、Google DESIGN.mdみたいな、構造と値を安定して伝えられるフォーマットにも出せるし、各値の意図や理由まで含めた「Rich Prompt」としても出せるところ。DESIGN.mdは再現性が高くて、Rich Promptはブランドやトーンの解釈がリッチになる代わりに、結果の揺らぎも増える。このトレードオフをちゃんと意識しているところが、まさに「AI時代のデザイン」のリアルだなと感じました。筆者は、AIがなんでも作ってくれる時代でも、基礎となる値を自分で決めておくことで、「なぜこのUIなのか」を説明できるし、手触りのあるものづくりに繋がると語っています。AIに全部やらせる前に、自分でルールを与える。そのバランス感覚を具体的なツールに落とし込んでいるのが印象的な記事でしたね。
。。。。
続いて2本目。「1年間の育休に備えて『勝手に賢くなる』AI情報収集基盤を作った」という記事です。タイトルからして最高なんですが、内容もかなりガチです。筆者はこれから1年の育休に入るにあたって、「復帰したときに生成AIのトレンドから取り残されてたら怖いな」という不安から、「放っておいても最新情報を集めてレポートにまとめてくれる」自動基盤をゼロから組み上げたそうです。やっていることは、Webと社内Slackから情報を集めて、日次・週次・月次レポートを自動生成、それをPDFにしてDriveに同期。で、ポイントは情報ソースの管理。SQLiteで「情報源」を全部一元管理して、「候補発見 → 昇格 → 降格」という3段階で、ソース自体が自動的に進化していく仕組みになっています。ただリンクを集めるんじゃなくて、「レポートにどれくらい採用されたか」という観点でも評価していくんですね。さらに、キーワード・Webソース・Slackチャンネル・Slackユーザーの4軸を動的に入れ替えることで、「キーワード検索だけだと追えなくなるトレンド」を補完し続ける。実装はMarkdownの手順書とシェルスクリプトで構成されていて、並列実行とか部分的な失敗の許容、ターン数の制限、同じ処理を何度回しても壊れない冪等性なんかを考えながら、cronで安定運用しているそうです。約3週間まわしてみたところ、ちゃんとレポートの自動生成とソースの自動進化が確認できて、「育休中は週1でレポート眺めてればキャッチアップできそう」という手応えを得たとのこと。休むために、自分の代わりに賢くなり続けるインフラを先に作る、っていう考え方がすごく素敵だなと思いました。
。。。。
3本目。「AI時代だからこそ、バグの少ないコードを書くためにTDDを学んだ話」です。AIがコードを書いてくれる時代に、あえてテスト駆動開発、TDDを学ぶ。そのモチベーションがまずおもしろいですよね。筆者は、バグの多さとか、仕様変更のたびに「これ大丈夫かな…」という不安を抱えていた中で、TDDを体系的に学び直します。そのなかで見えてきたのは、「テストを書く → 通す → 整える」という、ごく小さなサイクルをひたすら回しながら、設計をじわじわ良くしていくプロセスだったと。最初から完璧な設計を目指すのではなく、仮実装や三角測量を使って、まずは動くものを作り、複数のテストから一般化していく。その過程で、良いテストは「設計の悪さ」まで教えてくれる。責務がごちゃっとまとまってしまっていたり、結合度が高すぎたりすると、テストしづらくてすぐにバレるんですね。印象的だったのが、「不安が退屈に変わるまでテストを書く」という表現。不安をゼロにするんじゃなくて、「もう結果を見るまでもないな」と思えるくらいまでカバーしておくことで、心理的にも楽になる。作業を中断するときは、あえて失敗するテストを一つ残しておいて、再開時のフックにする、なんて実践的なテクニックも紹介されています。そしてAI時代の話。AIは一度に大きなコードをドンと生成できるけれど、それが本当に正しいかどうかは、人間が「何を正しいとするのか」をテストとして定義しないと判断できない。だからこそ、AIが書いた実装をテストで検証し、リファクタリングしていける力が、これからますます重要になると締めくくられています。
。。。。
4本目。「VRAM8GBの汎用PCに高性能LLM Qwen3.6-35Bを稼働させる: 人工知能深訪」という記事です。これはもう、ローカルLLM好きにはたまらない内容ですね。きっかけは、「RTX 4060 Ti 8GBで35Bモデルが動いた」というSNSの投稿。ほんとにそんなことある?というところから、VRAM8〜12GBクラスのいわゆる一般的なPCで、高性能なQwen3.6-35Bを動かせるのか検証しています。鍵になっているのが、MoE、Mixture of Expertsという仕組みです。全部のパラメータを一度に叩くんじゃなくて、そのとき必要な一部のエキスパートだけを動員することで、GPUメモリの負荷を下げられる。この記事では、GUIツールのLM Studioを使って、unsloth版のQwen3.6-35B-A3B-GGUFを、たとえばQ4_K_Mみたいな量子化設定込みで選択していきます。ロード時には、GPU Offloadの量とコンテキスト長を、手元PCのVRAMに合わせてかなり慎重にチューニング。ギリギリを攻めるとすぐにフリーズするので、ちょっと余裕を持たせるのがコツだそうです。ロードに成功したら、応答速度を見ながら量子化ビット数を上げたり下げたり。hermes agentを動かすには最低64kコンテキストが必要だけど、ローカルでも「まあまあ」実用レベルで動く、という結果が出ています。これに対して、qwen3.6-27bのような従来型はDenseモデルと呼ばれていて、GPU Offload自体は効くけれど、計算は均等に全部の層に回る。さらに限界を攻めたい人向けに、KVキャッシュをFP16からQ8_0に落とすことでGPUメモリを節約し、もっと多くをGPUにオフロードするテクニックも紹介されていました。家庭用PCでどこまで巨大モデルを動かせるか、その実験ログとしてもワクワクする内容です。
。。。。
そして最後、5本目。「AI に『リポジトリの地図』を渡す — マルチレポを束ねるセントラルリポジトリ設計」という記事です。これは、AIと開発プロセスの付き合い方の、かなり本質的な話ですね。マルチレポ環境だと、「価値の境界」と「実装の境界」がなかなか一致しない。サービスとしては一体なのに、コードは複数レポジトリにまたがっている。その結果、AIから見ると「いまどの文脈の話をしているのか」が非常に掴みにくい。そこで筆者が提案しているのが、「セントラルリポジトリ」という考え方です。特定のレポジトリに属さない横断情報を一箇所に集約して、ここを開発と情報参照の起点にする。隣にほかのレポジトリを物理的に並べておいて、コマンドで動的にその中身を読み込むことで、AIに広いコンテキストを渡せるようにするイメージですね。セントラルには「リポジトリカタログ」があって、所有者や依存関係、変更の波及範囲が一覧できるようになっている。増え続けるスキルや手順は、「開発フェーズ × リポジトリ」のマトリックスで整理されていて、共通ルールと各レポ固有のルールをハーネスとして多層的に強制しています。ドキュメントも、ロードマップ、調査メモ、設計、ADR、そしてas-built、つまり竣工図まで、全部並存させる。ただし「弱整合」でいいと割り切っていて、最終的な構造は実装側からリバース生成してあげることで、現状把握のコストを下げているのが特徴的です。標準化しすぎて窮屈にするのではなく、プロセスやツールの個人最適・チーム最適も許容しつつ、「ここだけはちゃんと揃えよう」というストック情報の一部だけ整合を取る。そのくらいの「緩さ」があるからこそ、変化の激しいAI開発環境に追従しやすくなる、と結論づけています。AIにコードベースの「地図」を渡すことで、ようやく賢く使いこなせるようになる、という視点が新鮮でした。
というわけで、今日は5本の記事をご紹介しました。ざっとおさらいすると、まずはUIの基礎値を自分で決めてAIに渡す「pre-design-md」の話。続いて、1年間の育休に備えて「勝手に賢くなる」情報収集基盤を作った話。3本目は、AI時代だからこそTDDを学び、テストで不安を小さくしていく話。そして4本目が、VRAM8GBクラスのPCでQwen3.6-35Bを動かすための工夫やチューニングの話。最後5本目は、マルチレポの世界でAIにちゃんと文脈を渡すための、セントラルリポジトリ設計のお話でした。
気になった記事があれば、詳しい内容は番組のショーノートにまとめてありますので、そちらから元の記事もぜひチェックしてみてください。そして「zenncast」では、番組の感想や、紹介してほしいテーマ、マイクへの質問なんかもゆるく募集しています。「こんな記事面白かったよ」とか「こういう特集やってほしい」みたいな一言でも大歓迎です。
それでは、そろそろお別れの時間です。また次回の「zenncast」でお会いできるのを楽しみにしています。お相手はマイクでした。それではみなさん、よい一日を。