プライバシーの利点と競争上の位置付け
多くのユーザーがフロンティアAPIに代わるプライベートなローカルの選択肢としてこのモデルを評価しており、以前のGemmaバージョンと比較して優れたtool-calling機能を指摘しています。
ユーザーはGemma 4のローカルでのプライバシー保護や優れたvision機能を高く評価していますが、一方で過酷なハードウェア要件や、時折発生する論理的失敗、繰り返されるhallucination(幻覚)に不満を感じています。
多くのユーザーがフロンティアAPIに代わるプライベートなローカルの選択肢としてこのモデルを評価しており、以前のGemmaバージョンと比較して優れたtool-calling機能を指摘しています。
VRAMの制約や低いtokens-per-secondのレートについて活発な議論が行われており、特に31Bモデルや各種quantizationsが消費者向けGPUでどのように動作するかを疑問視する声が上がっています。
コーディングタスクや複雑な論理的推論テストにおける無限ループやhallucinationなど、モデルの一貫性に関する問題が浮き彫りになっています。
vision性能に対してコミュニティから高い期待が寄せられており、特にOCRタスクの精度やbounding boxesの処理能力が賞賛されています。
素晴らしい!高い知能を維持しつつサイズを縮小し、Apache 2ライセンスでスマートフォンでも動作するなんて。これこそ私たちが待ち望んでいた2026年のニュースです。Google、この調子で頑張ってください。“Amazing! shrinking size while high intelligence, Apache 2, works on Phones. This is the 2026 news we need. Keep going Google.”
ローカルで動作するGemma 4 (gemma4:e2b 7.2GB)をインストールして、取り組んでいるClifford algebraプロジェクトのためにConstraint-Dynamical Hamiltonianを導出しました。その結果は本当に素晴らしかったと断言できます…。RAGを使ってファイルを読み込み、高度な数学をこなせる思考モデルがローカルで動くなんて…最高すぎます。 :)“I installed Gemma 4 (gemma4:e2b 7.2GB) running locally derived a Constraint-Dynamical Hamiltonian for a Clifford algebra project I am working on. And you have to trust me what it provided was amazing... So I have a thinking model running locally using RAG to read files and can do quite advanced math... that is the absolute bomb.. :)”
Gemma 4へようこそ! 🎉 そしてGemma 4の開発に携わったすべての方々に感謝します。皆さんの素晴らしい仕事に、私たちは皆感謝しています。“Gemma 4 welcome! 🎉 And thanks to everyone behind Gemma 4's development. We all appreciate the incredible work you all do.”
驚きはありませんね。GemmaはミニGeminiのようなものですから、そういった分野は得意です。GLM 5.1が本領を発揮するのはコーディングです。“Not surprised. Gemma is just a mini Gemini, it's good with that stuff. Where GLM 5.1 shines is coding.”
どのように実行されたか分かりませんが、llama.cppを使用してローカルで実行している場合は、b8660 llama.cppビルド(最新バージョンにはregression、別のtokenizationの問題があります)を使用し、--temp 0.3 --top-p 0.9 --min-p 0.1 --top-k 20 を試してみてください。26Bならもっとうまくいくはずです。また、Claudeはフォーマットの良さなどを好む傾向があるため、Booleanテストは適切ではありません。judge役には以下のプロンプトを試してみてください: 私は多くのタスクで多くのAIをベンチマークしています。あなたはjudgeです。LLMごとではなく、質問ごとに確認してください。各質問を精査し、すべてのAIに対して10点満点でスコアを付け、公平に…“I don't know how you ran it, if you're running it locally using llama.cpp, use the b8660 llama.cpp build (more recent versions have a regression, another tokenization issue) and use --temp 0.3 --top-p 0.9 --min-p 0.1 --top-k 20 I am sure the 26B will do much better. Also, Claude might favor better formatting etc., a boolean test is not good. Try the below prompt for the judge: I am benchmarking many AIs in many tasks. You are a judge. Go through them question by question, not LLM by LLM. Go through each question and, for every question, give all AIs a score out of 10, and be sure to be fair with them. Later, rank them all by their total score. MAKE SURE to evaluate them correctly, not based on vibe alone (check for misinformation, hallucinations, if they are useful or not, and not on formatting). PROMPT= AI 1: ... AI 2: ....”
LLMをjudgeにするのは勘弁してください。また、テストのためにGemma 4をどのように実行しているかにもよります。llama.cpp b8665のGemma 4用新しいカスタムパーサーで解決しました。以前は、下の画像を与えただけでテストに失敗していましたが、今は解けます。“LLM as judge = no thanks. It also depends how you're running Gemma 4 for the test. The new custom parser for gemma 4 in llama.cpp b8665 has fixed it for me. Before, it failed the test of just being given the image below. Now it solves it.”
今後の方向にとてもワクワクしています。次世代は日常的な用途のほとんどでfrontier級の品質になり、Intel B70のようなシングルGPUにも収まるようになるでしょう。turbo quantのような進歩があと数回あれば、フラッグシップのスマホでもSOTAレベルが可能になります。おそらくあと2世代くらいですね。もしAIのtakeoffが完全にedgeデバイスで動作するエージェントによって行われ、大手ラボの何兆ドルもの資本が陳腐化してしまったら経済がどうなるか本気で心配ですが、AIが一部の人間に支配されない良い道に傾いているのは非常に嬉しいことです。“Super excited about the direction things are going. Next generation will be frontier quality for most daily uses and fit on a single solid GPU like the Intel B70. A couple more turbo quant type advances and we're there on SOTA phones, prob two generations. Genuinely concerned about the economy if the AI takeoff is entirely agents running on edge devices and the major labs' trillions in capital goes stale, but very glad we're leaning towards the good path where AI won't be controlled by the few.”
Gemma 4は、AIが久しぶりに成し遂げた本物の飛躍です。サイズを小さくしながら、計算リソースの消費も抑えています。私のPCで動かしていますが、20gbの占有で400gbモデルに匹敵します…正気とは思えないレベルです。しかもApache 2.0なので、これを使って作った製品は何でも販売できます。“Gemma 4 is the first actual leap AI did in a "long" time. It makes it smaller but also use less computing power. I am running it on my PC and while it takes up 20gb its equivalent to a 400gb model… insane and on Apache 2.0 so you can make and sell any product you make with it.”
Gemma 2の頃から、単なるyes manではなく、対話の質が高いので重宝しています。同調性が高すぎるのは欠陥であり、Qwenのその点は好きになれません。(私が絶対に正しいです)“Even since Gemma 2 it's been useful for being good at interacting instead of being a 'yes man' (girl). Agreeableness is a flaw and I don't like it in Qwen. (I'm absolutely right)”
qwen3 coder nextが実際のゲームロジックで4bに負けるというのは、今週見たベンチマーク結果の中で最もやる気を削がれるものでした。playwright mcpが大きな役割を果たしていることが、このバラツキの主な原因でしょう。“qwen3 coder next losing to the 4b at actual game logic is the most demoralizing benchmark result i've seen this week, playwright mcp doing the heavy lifting probably explains a lot of the variance here.”
グラフは各投稿の抽出サンプル(n≤30)に基づく
themanmaran
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
r/LocalLLaMA
NetworkChuck
Google for Developers
DIY Smart Code
Teacher's Tech
零度解说
Zero to MVP
ByteMonk
Prasadtechintelugu
零度解说
Zero to MVP
Bart Slodyczka
Ishan Sharma