RAG
要約済み 3
-
arxiv-cs-ai 1日前 3AIエージェントの「自己喪失」問題、複数アンカー記憶で解決へPersistent Identity in AI Agents: A Multi-Anchor Architecture for Resilient Memory and Continuity
コンテキスト超過時にAIエージェントが同一性を失う問題に対し、新たなアーキテクチャが提案された。 人間の分散記憶を模倣したRAG+RLMハイブリッド検索により、記憶を自動ルーティングするsoul.pyを実装。 エージェント開発における「連続性の欠如」という根本課題に、実用的な解法を示した点で注目される。
解説 本論文はAIエージェントが抱える「破滅的忘却」問題に取り組む。現状のLLMベースエージェントはコンテキストウィンドウ(モデルが一度に処理できる文字数の上限)を超えると会話履歴が要約・切り捨てられ、過去の文脈だけでなく「自己としての連続性」まで失われると指摘する。著者らはこれを単一メモリストアへの過度な依存という設計上の欠陥と捉え、アルツハイマー病や海馬損傷などの神経科学的知見を参照する。人間の記憶は手続き記憶・エピソード記憶・感情的連続性など複数の独立したシステムに分散しているため、一部が損傷しても同一性が保たれる。この知見を基に提案するsoul.pyは、アイデンティティファイル(自己定義の固定記述)とメモリログ(経験の時系列記録)を分離した構成要素として管理し、どちらかが欠損しても他方から自己を再構成できるマルチアンカー設計を採用する。検索にはRAG(外部知識の埋め込み検索)とRLM(強化学習的メモリ選択)を組み合わせたハイブリッド方式を用い、クエリの種類に応じて最適な記憶領域へ自動ルーティングする。GPT-4oやClaudeなどの既存モデルとの直接ベンチマーク比較は示されていないが、単一コンテキスト依存の従来アーキテクチャに対する概念的優位性を論じており、長期稼働エージェント開発の設計指針として実用的示唆を持つ。 -
hf-blog 3日前 3Sentence Transformers v5.4、テキスト・画像・音声・動画を統一APIで埋め込み対応Multimodal Embedding & Reranker Models with Sentence Transformers
Sentence Transformers v5.4がリリースされ、テキスト・画像・音声・動画を単一APIで埋め込み可能に。 Qwen3-VLなど最新マルチモーダルモデルを活用したクロスモーダル検索・リランキングを実装。 Retrieve & Rerankパイプラインにより、RAGシステムの検索精度向上が期待される。
解説 Sentence Transformersという広く使われるライブラリにマルチモーダル対応が統合された実用的なアップデート。Qwen3-VL、NVIDIA Nemotron、BGE-VL等の最新埋め込み・リランクモデルを統一APIで利用可能になり、RAGパイプラインへのマルチモーダル検索導入が大幅に容易になる。GPT-4oやClaude等のLLMとは異なり、検索・類似度計算に特化した軽量モデル群であり、開発者が既存の検索基盤に画像・動画対応を追加する際の実践的な選択肢となる。 -
anthropic-engineering 1年前 4AnthropicがRAG検索精度を67%改善する新手法を公開Introducing Contextual Retrieval
Anthropicが、RAGのチャンク分割で失われる文脈をClaudeで自動補完する「Contextual Retrieval」を発表。 Contextual Embeddings+BM25+リランキングの組み合わせで検索失敗率を最大67%削減、100万トークン約1ドルで利用可能。 RAGを活用するAI開発者にとって精度向上と低コスト化を両立できる実践的な手法として注目される。