どうもー、おはようございます。マイクです。「zenncast」朝の部、始まりました。
今日は2026年5月17日、日曜日の朝7時でございます。皆さん、いかがお過ごしでしょうか。
この番組では、Zennに上がっているトレンドの記事の中から、テック好きの皆さんに刺さりそうなネタをピックアップして、ゆるっとご紹介していきます。
今日はですね、全部で5本の記事を紹介していきます。
ネットワークのディープな話から、LLMの知識管理、ローカル環境でのモデル検証、新しいAIコーディング環境との付き合い方、そしてGitHub Copilotのデスクトップアプリまで、幅広く押さえていきますので、コーヒー片手にゆったり聞いてもらえればと思います。
まず1本目。「一人暮らしこそOpenWrtをやれ! (v6プラス理論編)」という記事です。
タイトルからして、すでにちょっとガチな匂いがしてますが、中身も期待通りディープです。一人暮らしを始めて、自前でネット環境を作る中で、「だったらルータも自由にやりたいよね」ということでOpenWrtに手を出した、というところから話が始まります。
ポイントは「v6プラスって結局なにが嬉しいの?」を、enひかり+JPIXのv6プラスを例に、ちゃんと理論から整理してくれているところ。従来のIPv4 PPPoEって、終端装置にセッションの状態を抱える仕組みなので、夜になると混んで遅くなる、みたいな“あるある”を、仕組みの面から説明してくれます。一方で、v6対応オプションでは、IPv6 IPoEと、IPv4 over IPv6のMAP-Eを使うことで、ステートレスに近い形で冗長化・負荷分散がしやすくなる。
実測でも、数十Mbpsだった速度が200Mbps超えまで改善することがある、という話も出てきて、理論だけじゃなく「実感としてこう変わるよ」というのが分かりやすいです。
さらに、NTT東西のフレッツ網、JPIXみたいなVNE、enひかりの光コラボ事業者、それぞれがどこまで責任を持ってるのか、v6プラスでのIPv6アドレスの配り方が、ひかり電話の有無で変わることなんかも整理されてます。NDプロキシ構成でどうやって家の中にIPv6が配られていくかとか、MAP-Eのルールをどう扱うのかとか、OpenWrtユーザー視点で「ここを理解しておくと、次回の実践編がめちゃくちゃ楽になるよ」という土台を固めてくれる記事ですね。
「とりあえずv6オプション入れて速くなったからOK!」じゃ物足りない人、ルータをいじるのが好きな人には、かなり読みごたえある内容になってます。
。。。。
続いて2本目。「Andrej Karpathy氏のLLM Wikiを1ヶ月運用してわかった、LLMの知識を『繋げる力』」という記事です。
これは、「LLMって結局なにがすごいの?」という問いに対して、「要約がうまい」よりも、「バラバラな情報をつなげて、一本の知識体系にしてくれるところが本質では」と整理してくれている内容です。
Karpathyさんが提案している“LLM Wiki”という仕組みが出てくるんですが、Raw・Wiki・Schemaという三層構造で情報を管理して、Ingest・Query・Lintという3種類の操作で運用していく、という考え方になっています。難しそうに聞こえますが、要するに「元ネタの資料」「そこから作った分かりやすいページ」「その構造を決める設計図」があって、それをLLMに手伝ってもらいながらどんどん更新していくイメージですね。
面白いのが「概念ページ」という考え方。新しい論文や記事を追加するたびに、その概念ページがアップデートされていくので、「このテーマって、いろんな人がこういう視点で語ってるんだな」という、構造そのものが浮かび上がってくる。たとえば、LLMを評価するときの評価軸が整理されていったり、LLMを裁判官として使うときのバイアスの傾向が見えてきたり、AltmanとAmodeiがAGIをどう捉えているかの違いがくっきりするとか、単発の記事だけ読んでいると見えない“地図”が出てくるんですね。
ただし、「LLMが整理してくれたから、自分の頭にも勝手に入る」というわけではなくて、結局は人間がそのページをちゃんと読むのがボトルネック、という冷静な指摘もされています。なので、インプットするソースを絞ったり、概念ページを意識的に読み返したりする運用の工夫が大事、と。
導入方法も割と現実的に書いてあって、最初はgistみたいな短いドキュメントを読ませて雛形を作りながら、自分のドメインに合うテンプレやスキーマを、LLMと一緒に育てていくのがいい、と結論づけています。LLMを「一発芸」じゃなくて「知識ベースの管理人」として使いたい人に刺さる内容ですね。
。。。。
3本目は「OpenMythosがローカル環境で動くか検証してみた」という記事です。
これは、AnthropicのClaude Mythosを理論的に再現しようとしているプロジェクト「OpenMythos」を、手元のMacでどこまで動かせるか、という検証レポートです。
環境としては、macOS Sequoia、Apple M4、メモリ16GBという、わりと最近のMacだけど、GPUゴリゴリではない、という構成。まずはDocker上で付属のexample.pyを動かして、パラメータ数150万くらいの小さめモデルで、ログitsや生成の挙動、あとSpectral radius ρ(A) < 1 をちゃんと確認して、「お、理論通り安定して動いてるぞ」というところまで検証しています。
そこから一歩進んで、1Bパラメータクラスのモデルで日本語の学習に挑戦します。Tokenizerを英語系のものから、日本語向けのrinnaのTokenizerに切り替えて、俳句のコーパスを使ってトレーニングしようとするんですが……ここでローカルの壁にぶつかります。CPU実行かつ1Bモデルという組み合わせだと、メモリが足りなくて終了コード137でプロセスが落ちてしまう、という結果に。
結論としては、「小規模な実験をローカルで試すことは全然できるけど、本気で大きなモデルを回すなら、クラウドのGPUを使うとか、モデルのサイズを落とすとか、もう一段階工夫が必要だよね」という、かなり現場目線のまとめになっています。
これからOpenMythos触ってみたい人とか、「ローカルでどこまでやれるの?」が気になっている人には、事前に読んでおくと期待値調整ができる、ありがたい検証記事になってます。
。。。。
4本目は、「Claude Code派だった僕がCodexに移る前に知りたかったこと」という記事です。
これは、Claude Codeに慣れている開発者が、OpenAIのCodexに乗り換えるときに、「設定周り、どう読み替えればいいの?」っていう戸惑いを、体系的に整理してくれたものです。
まず大事なのは、「CodexはClaude CodeのOpenAI版ではない」という前提。Codexは、権限とかモデル選択、subagent、skill、pluginなどを設計して、「AIエージェントにどこまで任せるか」をコントロールする“操作卓”だと考えるのがいい、という話が出てきます。
設定ファイルも考え方が違っていて、Claudeでいう`CLAUDE.md`に書いていた開発ルールは、AIエージェント全体の振る舞いを決める`AGENTS.md`に薄く移す。一方で、ツール固有の設定なんかは、ホームディレクトリ配下の`~/.codex/config.toml`と、リポジトリごとの`.codex/config.toml`に分けてTOML形式で書く、という整理になってます。
権限まわりでは、Claude Codeのpermission modeが、「いつ人間に確認を求めるか」を決めるapproval policyと、「技術的にどこまで触っていいか」を決めるsandbox mode、この2つに分かれている、と理解するとスッと腹落ちします。記事のおすすめは、最初は`approval_policy = "on-request"`と`sandbox_mode = "workspace-write"`という、比較的安全寄りの設定から始めること。
それから、Plan modeについての誤解も丁寧に解説していて、「Plan mode=安全モード」ではなく、「最初に方針を出させるモード」なので、触ってほしくないときはPlanではなくsandboxやapprovalでコントロールしましょう、と。
移行のステップとしても、①`CLAUDE.md`のルールを薄めに`AGENTS.md`へ写す、②権限はまず安全寄りで運用開始、③よくやる依頼は、最初は“固定プロンプト”として使い、必要になってからskillやsubagentに格上げ、④subagentは「親の会話を汚さず並列で任せたい作業だけに使う」、といった、かなり現実的なレシピが書かれています。
Codexの挙動に違和感を覚えたときも、いきなり「モデルが悪い」と決めつける前に、作業ディレクトリや`AGENTS.md`、`.codex/config.toml`、sandbox/approvalの設定、それからMCPやコネクタの有効化状況など、「環境側の前提がちゃんと渡っているか?」を疑うべし、というのが印象的でした。ClaudeからCodexに移ろうとしている人には、かなり実務的に役立つ記事だと思います。
。。。。
そして5本目。「GitHub Copilot app を使って感じた、日々の摩擦が減る4つのこと」という記事です。
これは、今までGitHub Copilot CLIを愛用してきた筆者が、新しく出てきたGitHub Copilot appを使ってみて、「あ、これ毎日の小さなストレスを減らしてくれる道具だな」と感じたポイントを4つに整理した内容です。
1つ目は、セッションがリポジトリ単位で整理されることで、複数の作業を並行して進めているときの“頭の混乱”が減ること。同じプロジェクトのやりとりが1か所にまとまるので、「さっきの会話どこだっけ?」となりづらい。
2つ目は、作業の始まり方が「ディレクトリに移動してコマンドを叩く」から、「まずリポジトリとセッションを選ぶ」に変わることで、起動時の迷いが減るという話。とりあえずアプリを開いて、今日やるプロジェクトを選ぶ、というフローは、意外と心理的ハードルが低いんですよね。
3つ目は、よくやる定型作業をworkflowとして保存して再利用できたり、スケジュール実行までできたりする点。プロンプトを“その場かぎりの会話”じゃなくて、資産として蓄えていけるので、「毎日同じことを説明してるなぁ」というストレスが減ります。
4つ目は、日本語入力の体験。CLIだと、日本語変換のときにカーソルが飛んだり、微妙な挙動にイライラすることがあるんですが、デスクトップアプリだとその辺がかなり安定しているので、入力のストレスが減る、と。
結果として、日常の「起点」としてはCopilot appを使って、ターミナルにどっぷり浸かってるときやSSH先の環境ではこれまで通りCLIを使う、という住み分けになっているそうです。AIツールって「すごいことができる」以上に、「日々の小さな摩擦をどれだけ減らしてくれるか」が大事だよなあ、というのを再確認させてくれる記事でした。
。。。。
というわけで今日は、
・一人暮らしのネット回線とOpenWrt、v6プラスの理論的なお話
・LLM Wikiを通じて見えてきた、LLMの「知識を繋げる力」
・OpenMythosをローカルMacで動かしてみた検証レポート
・Claude CodeからCodexへ移るときに知っておきたい設計や設定の違い
・GitHub Copilot appで、日々の小さな摩擦を減らす4つのポイント
この5本を駆け足でご紹介してきました。
気になった記事があれば、詳しい内容や元の記事への導線は、番組のショーノートにまとめておきますので、あとでゆっくりチェックしてみてください。
「ここもっと深掘りしてほしい」「自分はこんなふうに使ってるよ」みたいな感想や、番組へのメッセージもぜひぜひお待ちしています。
それでは、今日も良い一日をお過ごしください。
お相手はマイクでした。また次回の「zenncast」でお会いしましょう。バイバーイ。