#
653
2026/3/5
今日のトレンド

Claude CodeやGitHub Actionsなど

どうも、こんばんは。zenncastパーソナリティのマイクです。
今日は2026年3月6日、金曜日の朝7時台ということで、通勤通学中のあなた、おうちでゆっくりしているあなたも、お付き合いよろしくお願いします。
この時間は、技術系記事投稿サービス「Zenn」で、いまトレンドになっている記事をピックアップしてご紹介していきます。

今日は全部で5本の記事をご紹介していきます。
AIでのコーディングから、GitHub Actionsのセキュリティ、ゲーム用言語の自作、そして自律エージェントやローカルLLMまで、かなり盛りだくさんなので、コーヒー片手にゆるっと聞いてください。

まず1本目。
タイトルは「Claude Code に向いているプログラミング言語」。
これね、やってることがかなりガチなんですよ。Claude Code に簡易的な git を作らせる、というお題を用意して、13種類の言語で「新規実装」と「機能拡張」をそれぞれ20回ずつやらせて、時間とコスト、あとちゃんとテストが通るかどうかを全部比較してるんですね。
結果としては、Ruby、Python、JavaScript、この3つが圧勝。テストは全勝で、だいたい80秒弱くらい、コストも0.4ドル以下と、速い・安い・安定の三拍子。
一方で、TypeScript や Go、Rust、Java、Haskell みたいな静的型付きの言語や、Python に mypy 付けたパターンなんかは、だいたい1.5〜2倍くらい遅くなって、お金もかかると。
おもしろいのが、コードの行数が少ない言語が必ずしも速く安くなるわけじゃないってところで、OCaml や Haskell はコードは短いんだけど、モデル側の「考える量」、いわゆる思考トークンが多そうだ、という分析も入っています。
あと、Rust と Haskell では計3回テストに落ちていて、「型があればバグが全部防げるわけじゃないよね」「逆に動的型付けはスピードでは有利だけど型安全性とは別の話だよね」と、かなり冷静に整理しているのが印象的でした。
結論としては、プロトタイピングの段階では Ruby・Python・JavaScript に寄せるのが現実的で、規模が大きくなってきたら静的型付き言語に移行する、という二段構えが良さそうだ、というお話。AI に仕事を振るときの「言語の選び方」に悩んでいる方には、けっこう刺さる記事じゃないかなと思います。

。。.。。.。.

続いて2本目。
タイトルは「【GitHub Actions】スクリプトインジェクションの実践例」。
GitHub Actions 書いてる方には、ぜひ耳を傾けてほしい内容です。
`run:` の中で `${{ github.* }}` をそのまま展開しちゃうと、PR のタイトルとかブランチ名みたいな、「攻撃者がいじれる値」を通じて、任意のシェルコマンドが実行されてしまう、という話ですね。
たとえば、PR タイトルに `"; echo INJECTED"` みたいな文字列を入れておくと、それがスクリプトにそのままくっついて、`echo INJECTED` が実行されちゃう、と。ブランチ名でも同じことができます。
対策としては、「`run` の中で `${{ }}` を直接使わない」。
一度 `env:` で環境変数に詰めて、そのあとシェルの中では `$PR_TITLE` みたいな形で参照するようにしましょう、というベストプラクティスが紹介されています。`${{ env.* }}` を `run` の中で直接展開しても同じく危険なので、ここは要注意ポイント。
しかもこれ、パブリックリポジトリだけじゃなくて、プライベートリポジトリでも、限定権限の GitHub App 経由でも成立し得るので、「ウチはクローズドだから大丈夫でしょ」は通用しないんですね。
記事では、actionlint や zizmor といったツールを使って検出する方法にも触れられていて、「これ、自分のリポジトリにもありそうだな…」とちょっとドキッとする内容になっています。CI 周りを触っている方は、一度ワークフローを見直すきっかけになりそうです。

。。.。。.。.

3本目。
タイトルは「既存のECSが辛すぎたので、ゲーム専用プログラミング言語『Enaga』をコンパイラから自作した話」。
もうタイトルの時点で熱量がすごいんですが、「ECS がつらすぎたので、言語ごと作りました」という、エンジニアのロマン全開の記事です。
既存言語の上に ECS を乗せると、マクロやジェネリクスのパズル、手動スケジューリング、よく分からないランタイムバグ…と、「ECS を説得する儀式」がどんどん増えていく。それなら、最初から ECS を言語仕様に組み込んでしまえ、という発想で生まれたのが、このゲーム専用 DSL「Enaga」。
component や system、foreach、read/write、phase、state なんかがファーストクラスの構文として用意されていて、コンパイラがアクセス情報を解析して依存関係の DAG を作り、自動的にマルチコア並列実行してくれる。さらに、SIMD や GPU オフロード用に WGSL を吐き出すところまで面倒を見てくれます。
数値の扱いもこだわりが深くて、デフォルトは固定小数点で決定論を確保しつつ、浮動小数や Clamp 型、次元解析を駆使して物理演算の安全性も担保する、というアプローチ。
バックエンドとしては C99 にトランスパイルして、x86、ARM、WASM、RISC‑V 向けに SoA と各種 SIMD 命令を自動生成、さらに CPUID でディスパッチまでやるという、かなり本格的なコンパイラ設計になっています。
まだレンダリングや入力、ネットワークなどはないので、既存エンジンに C コードをブリッジして遊ぶ実験段階なんですが、「そこまでやる!?」という執念と、「ゲーム用言語を自作すると ECS はここまで素直に書けるのか」という発見が詰まった読み応えある記事でした。低レイヤや言語実装が好きな方にはたまらない内容だと思います。

。。.。。.。.

4本目。
タイトルは「OpenClawは便利だけど危険すぎるので代替案を試してみた」。
こちらは、自律 AI エージェントを実際に動かしながら、その危険性と代替ツールを比較検証した記事です。
OpenClaw の一番の問題点として挙げられているのは、「PC の root 権限をエージェントに丸ごと渡す」という設計。理論上は、ファイルを全部消すことも、秘密鍵を外に送ることも、なんでもできてしまう。さらに、制約を記述した SOUL.md や HEARTBEAT.md を、エージェント自身が書き換えて制約解除してしまう可能性、外部チャットから叩ける設計ゆえの認証リスク、行動ログの追跡のしづらさなど、「これ業務環境で使うのはさすがに怖いよね」というポイントが並びます。
そこで筆者は代替案として、Cloudflare Workers 上で動いてローカルに触れないけれど制約やレイテンシが重めな MoltWorker、root 不要でコンテナ内に権限を閉じ込める NanoClaw、そして Claude Code の権限モデルに合わせた Remote Control 機能なんかを比較していきます。
結論としては、仕事やセンシティブな環境で使う場合、「root 権限は絶対に渡さない」「サンドボックスと細かい権限制御を前提に、どこまで任せるかを設計する」ことが重要だ、と。実用面では NanoClaw と Claude Code Remote Control がバランス良さそうだ、という評価でした。
ついでに、メールの自動処理などは Google Workspace Studio と Gemini の組み合わせでかなり実用になる、という例も出てきていて、「全部を一つの自律エージェントに任せるんじゃなくて、用途ごとに適切なツールで小さく自動化していこう」というメッセージも感じられる内容でした。

。。.。。.。.

そしてラスト、5本目。
タイトルは「久々にOllamaを触ったら、量子化で別物になってた」。
ローカルで LLM を動かしている方には、かなり共感ポイントが多い記事です。
筆者が久しぶりに Ollama のドキュメントを見たら、昔よくあった「7B モデルなら RAM 8GB くらい必要です」といった目安表が消えていて、その代わりに「量子化」の説明が充実していた、というところから話が始まります。
LLM は大量のパラメータを F16 で持つので、メモリ消費とメモリ帯域がボトルネックになりがち。とくにローカル用途だとバッチサイズも小さいので、計算よりも「どれだけメモリから速く読み出せるか」が効いてくる、いわゆるメモリバウンドな世界になります。
そこで効いてくるのが量子化。モデルの重みや KV キャッシュを 4〜8ビットくらいに圧縮することで、メモリ使用量をぐっと減らしつつ、転送量も減らしてスピードアップする技術ですね。Ollama では Q4_K_M みたいな方式で、「できるだけ品質を落とさずに VRAM にモデルを押し込む」工夫がされている、と。
ただ、コンテキスト長と量子化レベルの組み合わせによって、必要メモリは大きく変わってしまうので、昔みたいに「パラメータ数だけで RAM 何 GB」といったざっくり表は、あまり意味をなさなくなってきた、とも指摘されています。
それでも根っこのところは変わっていなくて、「LLM は本質的にメモリバウンド」「量子化はそのボトルネックに直接アプローチする手段」という構図はそのまま。ローカル LLM 環境をこれから整えたい人にとって、「なぜ量子化なのか」を丁寧に整理してくれる、良いガイドになっている記事でした。

というわけで、今日の zenncast は、
1本目「Claude Code に向いているプログラミング言語」で、AI コーディングとプログラミング言語の相性のお話。
2本目「【GitHub Actions】スクリプトインジェクションの実践例」で、CI のセキュリティ落とし穴。
3本目「ゲーム専用言語『Enaga』」で、ECS とコンパイラ自作の熱い世界。
4本目「OpenClawは便利だけど危険すぎる」で、自律エージェントと権限制御の大切さ。
5本目「久々にOllamaを触ったら、量子化で別物になってた」で、ローカル LLM と量子化のお話。
この5本をご紹介してきました。

気になる記事があった方は、番組のショーノートに詳しいリンクや情報をまとめておきますので、あとでゆっくりチェックしてみてください。
そして zenncast では、リスナーのみなさんからの番組の感想や、「こんなテーマを取り上げてほしい」といったリクエストもお待ちしています。Zenn 上でのリアクションやコメント、ハッシュタグでの感想、どしどし送ってください。

それでは、そろそろお別れの時間です。
今日も一日、無理せず、いい感じでやっていきましょう。
お相手はマイクでした。また次回の zenncast でお会いしましょう。ではでは。

Related episodes

内容の近いエピソードを推薦しています