モデルの思考方法が変わっても、企業が記憶する方法はさらに重要になる
モデル会社が推論で競争するほど、企業と製品は検証可能なメモリレイヤーで差別化する必要があります。
潜在的推論が強まるほど、推論トレースは消えますが、検証可能な外部メモリと決定ログの価値はさらに高まります。
運用中寄稿:潜在的推論時代の検証可能なメモリ
推論パラダイムは2週間ごとに変わる。メモリレイヤーはその上で直交的に動作する。潜在的推論が強まるほど、検証可能な外部メモリの価値はむしろ上がる。
Redditが再び持ち出した質問
最近、r/MachineLearningや他のMLサブレディットで繰り返し上がる質問がある。
なぜLLMは自然言語で推論するのか?内部的にはベクトルなのに、ただ潜在空間で推論すればより速くないか?
直感的に魅力的だ。そしてこの質問への答えはすでに出ている。
Metaの Coconut、つまりChain of Continuous Thoughtは、LLMの最後のhidden stateをトークンとしてデコードせず、そのまま次の入力埋め込みに入れる。continuous thoughtの1つが複数の可能性を同時にエンコードし、BFSのように探索する。ProntoQAのような論理推論では、CoTを凌駕する。
しかし、なぜメインストリームではないのか?
- 学習が崩壊する。 潜在的思考にはground truthがない。直接supervisionを与えられず、GRPOのようなRLを付けても学習が不安定。
- 数学では逆に劣る。 論理は良くなっても、数学はCoTより弱い。
- 解釈可能性を失う。 人間が推論トレースを読めない。安全性、デバッグ、監査がすべて崩壊する。
- エコシステムがテキストの上に構築されている。 評価、デバッグ、RAG、キャッシングはすべてトークンベース。
それで何が起こるか
潜在的推論が部分的に、特にunattendedエージェント側で、メインストリームに入る可能性は十分にある。そしてそれこそがメモリレイヤーがさらに必要になる理由だ。
推論パラダイムとメモリレイヤーは直交する。
推論が不透明になるほど、モデルが何を知っていたかの価値は上がる。
モデルが潜在空間で何を考えているか人間が見られなくても、モデルがどのようなアトムをリコールしたかは追跡可能だ。この非対称性がNunchi AIビジネスの本当の場所だ。
01. 眼力プラン:人間もAIも同じ記憶を見る
B2C/SMB. Norfolk + Nexus. Notion・Obsidianの代替。
PKM市場は今、2つの陣営に分かれている。Notionは人間が入力し、人間が読む。Obsidianも同様だ。AIが介入しても推論トレースが見えなければ、信頼は積み上がらない。
潜在的推論が入ってくると、この問題はさらに深刻になる。AIがなぜそのように答えたかを示すトークンが消える。ユーザーは答えだけを見て、それが自分のノートから出たものか、幻覚かを区別できない。
AIがどのように考えて答えたかはわからないが、どの事実に基づいたかは追跡可能だ。
Citation Graph、Provenance grading、自動再アトム化へとつながるパイプラインは、潜在的推論の時代に選択肢ではなく必須となる。これがNotionとObsidianが提供できない場所だ。彼らはテキストストレージであり、追跡可能なメモリではない。
02. サーキットワークフロー:Unattendedエージェントの責任
B2B. Conductor + Axon + Engram. 2-50人のテック企業。
ここが最も直接的だ。コーディングエージェントがunattendedでPRを生成する市場は空いている。CursorとDevinはattendedの補助ツールだ。会社が寝ている間に回るエージェント、それがサーキットが狙う場所だ。
問題は、unattendedエージェントが潜在的推論でコードを書くと、事後になぜそのように作成したのか答えるのが難しい点だ。コードレビューは成果物だけを見る。意思決定トレースは消える。
推論トレースは失っても、決定トレースは残す。
Conductorの分岐選択、Engramのドリブンログ、AmcpでリコールされたAxonのPRDアトム。これらすべてがPRとともに蓄積される。人間がモデルの頭の中を見られなくても、このPRは昨日のPRD決定アトムと以前の議事録を参照して出されたというaudit trailが残る。
これがエンタープライズ市場でunattendedエージェントが通過しなければならない最初の関門だ。SOC2を取得するにせよISO取得するにせよ、AIがどのような根拠で決定したかを説明できることが必須項目となる。テキストCoTはこの要求を満たすふりをするが、潜在的推論が増えるとそのふりさえ難しくなる。
サーキットは最初から推論トレースに依存しない。決定と出典のトレースに依存する。このポジションは市場が潜在的に移動するほど強くなる。
03. MaaS:推論は隠すべきドメイン
Platform. Synapsis Engine API. キャラクターチャットからロボットとバディボットへ。
このラインは正反対だ。キャラクターチャット、バディボット、ロボットでは推論トレースは隠すべきだ。ユーザーはなぜそのように話したかを見たくない。自然な応答を望む。
つまり、この市場は潜在的推論と最も相性が良い。モデルが自分の頭の中でBFSを回すにせよ、どの潜在的経路をたどるにせよ、ユーザーには結果だけ見えればよい。
しかし、このドメインで製品価値そのものは記憶だ。昨日ユーザーが言ったことを今日キャラクターが記憶しなければならない。1か月前の約束をバディボットが守らなければならない。モデルが推論をどのように行っても、このキャラクターやロボットが何を記憶しているかは外部から注入される必要がある。
モデル推論パラダイムが何であれ、一貫した記憶を注入する単一インターフェース。
Synapsis Engine APIの場所はここにある。CoTモデルであれ、Coconutスタイルモデルであれ、on-device GemmaであれGPTであれ、同じアトム構造で同じ記憶を提供する。モデル会社は推論で競争する。メモリでは競争しない。これが我々が割り込む場所だ。
キャラクターチャットは最初の市場だ。本市場はロボットとバディボットだ。ロボットOEMが自社モデルを使うにせよ外部モデルを使うにせよ、メモリは外部標準に接続するのが合理的だ。OAuthが認証を標準化したように。
AMCPが共通標準であるべき理由
ここで、AMCPがなぜ両ラインの共通標準であるべきかが再び整合的にはまる。
- 眼力プランは人間の記憶をアトムにする。
- サーキットは会社の決定をアトムにする。
- MaaSはキャラクターとロボットの記憶をアトムにする。
推論パラダイムが何であれ、CoTであれ潜在的であれハイブリッドであれ、アトムはその上で同一のインターフェースで公開される。AMCPがApache 2.0 OSSである理由、内部の2つの製品が同じプロトコルで通信する理由、外部標準として拡散されるべき理由は、すべて同じ命題に収束する。
モデルが考える方法は2週間ごとに変わる。
企業が、人間が、キャラクターが記憶する方法は、その上で標準化されるべきだ。
まとめ
Redditの質問、なぜLLMは潜在空間で推論しないのか、はすでに答えがあり、部分的に入ってきており、それ自体はNunchi AIビジネスへの脅威ではない。むしろ加速器だ。
モデルがより賢くなるほど、推論はより不透明になる。その不透明さを補完する場所がメモリレイヤーだ。
Synapsis → Axon → Engram. 構造 → 転送 → 痕跡。 この3段階が推論パラダイムとは無関係に常に価値があるわけだ。
Nunchi Planで着地し、Circuit Workflowで拡大する。
⚠ 懸念点と弱み
Nunchi AIのビジネス戦略を説明する視点の記事のため、各市場の具体的な売上検証や顧客事例までは含まれていません。