LLM・基盤モデル

RL学習が乱れたのは、アルゴリズムではなくエンジンだった

vLLM V0 to V1: Correctness Before Corrections in RLServiceNow AIが公開したこのレポートは、vLLM V1への移行でRL学習パイプラインに生じた指標の乱れを記録したものです。cl...
LLM・基盤モデル

推論エンジンの正しさを先に——vLLM V1移行が示したRL開発の優先順位

ServiceNow AI が公開した vLLM V0 to V1: Correctness Before Corrections in RL は、強化学習パイプラインにおける推論エンジンの移行録だ。rollout 生成に vLLM を使う...
生成AI

AIの「説得」と「操作」を、測れるようになった

AIが自然に会話できるようになるほど、「説得しているのか、操っているのか」の境界は見えにくくなる。その境界を実証的に測る手段が、ようやく登場した。Google DeepMind が3月に公開した Protecting People from...
LLM・基盤モデル

「話す」から「会話する」へ——Gemini 3.1 Flash Liveが塗り替えた音声AIの基準

音声AIに、ほんの少しのズレを感じたことはないだろうか。Google DeepMindは2026年3月26日、Gemini 3.1 Flash Live: Google's latest AI audio model を公開した。前モデルよ...
AIエージェント

エージェント推論をローカルへ——Gemma 4 がオープンモデルの上限を塗り替えた

Google DeepMindがGemma 4: Our most capable open models to dateを公開した。Gemini 3と同等の研究基盤に基づき、パラメータあたりの性能において過去最高水準を実現。高度な推論とエ...
LLM・基盤モデル

TTSが「読む」から「演じる」へ——Gemini 3.1 Flash TTSのaudio tagsが開く可能性

音声合成を使う側として、ずっと感じていた「物足りなさ」がある。どんなに自然な声でも、読み上げは読み上げにしか聞こえない。テキストを渡せば、AIは正確に読む。でも、「そこは間を置いてほしい」「もっと明るいトーンで」という意図は、ほとんど伝わら...
AIエージェント

ローカルで動くエージェントが現実になる——Gemma 4が開いた扉

オープンモデルが「使えるレベル」を超えて「選ぶ理由がある」段階に来た、そう感じさせるリリースが届いた。Google DeepMindは4月2日、Gemma 4: Our most capable open models to date を発...
LLM・基盤モデル

「考えて動く」ロボットへ——Gemini Robotics-ER 1.6が示す身体推論の変曲点

ロボットに「箱を棚の右端に置いて」と言って、それが通じるようになるまで、あと何年かかると思うだろうか。Google DeepMind は5月、Gemini Robotics ER 1.6: Enhanced Embodied Reasoni...
生成AI

AIは揃った、届かせる段階へ——Google DeepMindが5大コンサルと組んだ理由

Partnering with industry leaders to accelerate AI transformation(Google DeepMind、2026年4月)Google DeepMindがAccenture、Bain ...
生成AI

AI訓練の「全チップ同期」前提を崩す新アーキテクチャ

大規模AIモデルのトレーニングには、暗黙の前提がある。数千枚のチップが密に結合し、常に完全同期を維持し続けなければならない、という前提だ。1つのノード障害が全体の学習を止めるリスクを受け入れながら、業界はその前提のもとでスケールを追ってきた...