アプリストア
ウォレット

Google、リアルタイムで自らのメモリを更新する初のAIシステム 「Titans」を発表

Google、リアルタイムで自らのメモリを更新する初のAIシステム 「Titans」を発表

Google Research は、AI models the ability をリアルタイムで内部メモリを更新できるようにするために設計された新しいアーキテクチャ Titans を発表し、2017年の登場以来、Transformer フレームワークからの最も重要な転換点の一つとなっている。

このシステムは MIRAS と呼ばれる理論的フレームワークと組み合わされており、推論中に継続的に学習しながら、極めて長いコンテキストを処理し保持できるように構築されている。

何が起きたのか

この発表は、大規模言語モデルが長年抱えてきた制約に対処するものだ。Transformer はパターン認識に優れる一方で、入力が長くなるにつれて計算コストが急激に増大し、再学習を行わない限りコアとなる知識を更新できないという問題があった。

Google の新しいアプローチでは、データがストリーミングされるのに合わせてモデルが長期記憶パラメータを変更できるようになり、オフラインでのファインチューニングを行わずに持続的な学習を可能にしている。

Google Research によると、Titans はリカレントアーキテクチャの高速性とアテンションベースシステムの精度を組み合わせ、数百万トークンにわたる情報を要約・統合する深層ニューラルメモリモジュールによって支えられている。

Also Read: PwC: Hedge-Fund Crypto Exposure Surges To 55%, Up From 47% Last Year

重要なメカニズムとして「サプライズメトリック」と呼ばれる指標が導入されており、新しい入力が既存メモリとどの程度異なっているかを測定し、恒久的に保存すべき情報かどうかを判断する。

併設される設計図である MIRAS は、すべての系列モデルを連想記憶システムの一種として再定義し、情報の保存・保持・更新の方法を定式化する。

このフレームワークでは、YAAD、MONETA、MEMORA など複数の「アテンション不要」なバリアントが導入されており、それぞれが長文脈ワークロード下でのロバスト性や安定性の向上を目的としている。

なぜ重要なのか

実験的な評価において、Titans は Mamba-2、Gated DeltaNet、Transformer++ といった代表的なアーキテクチャを、言語モデリング、ゼロショット推論、ゲノミクス、時系列タスクで上回った。

Google によれば、Titans は長文脈ベンチマークである BABILong においても優れた性能を示し、はるかに少ないパラメータ数でありながら GPT-4 を凌駕し、200万トークンを超えるコンテキストウィンドウへとスケールしたという。

Google は Titans と MIRAS を、巨大なデータセットに対して適応的に推論し、継続的に学習し、長文脈を効率的に処理できる新世代 AI システムの基盤として位置づけており、今後の研究用および実用的な AI の発展に大きな影響を与える可能性があるとみている。

Read Next: Did Solana’s Top Lending Platform Mislead Users? Jupiter’s Risk Reversal Sparks Alarm

免責事項とリスク警告: この記事で提供される情報は教育および情報提供のみを目的としており、著者の意見に基づいています。金融、投資、法的、または税務上のアドバイスを構成するものではありません。 暗号資産は非常に変動性が高く、投資の全部または相当な部分を失うリスクを含む高いリスクにさらされています。暗号資産の取引または保有は、すべての投資家に適しているとは限りません。 この記事で表明された見解は著者のものであり、Yellow、その創設者、または役員の公式な方針や立場を表すものではありません。 投資決定を行う前に、常にご自身で十分な調査(D.Y.O.R.)を行い、ライセンスを持つ金融専門家にご相談ください。
Google、リアルタイムで自らのメモリを更新する初のAIシステム 「Titans」を発表 | Yellow.com