プライバシー
要約済み 4
-
hf-papers 23時間前 3モバイルAIエージェントにプライバシー嗜好を学習させる新手法Mobile GUI Agent Privacy Personalization with Trajectory Induced Preference Optimization
MLLMベースのモバイルGUIエージェントがユーザーのプライバシー嗜好に沿って行動する手法「TIPO」が発表された。 プライバシー優先・利便性優先の異なるペルソナを軌跡から学習し、タスク成功率65.60%を達成。 スマートフォン操作AIの個人化・プライバシー配慮設計に新たな指針を示す成果として注目される。
解説 本論文は、スマートフォン操作を自動化するモバイルGUIエージェントにプライバシー個人化を組み込む研究である。同一タスクでもユーザーのプライバシー嗜好(プライバシー優先 vs 利便性優先)により実行軌跡が構造的・長さ的に異なるという問題に着目し、新手法「TIPO(Trajectory Induced Preference Optimization)」を提案する。 TIPOの核心は2つの機構にある。①**選好強度重み付け**:権限拒否やトラッキング無効化など、ペルソナ識別に重要なステップに高い重みを割り当て、プライバシー関連の学習信号を強調する。②**パディングゲーティング**:長さ揃えのために挿入されたno_actionプレースホルダーへの勾配を遮断し、無意味なアライメントノイズを排除する。これらにより既存のDPO(Direct Preference Optimization:報酬モデル不要の選好学習手法)が抱える均一重み付けの問題を克服する。 実験にはショッピング・支払い・閲覧等8カテゴリ151タスク・302軌跡からなる独自データセットを構築。Qwen2.5VL-3Bをバックボーンに、DPO・ORPO・SimPO・CPO・IPOと比較した結果、TIPOは総合タスク成功率65.60%、ペルソナ遵守スコア(Compliance)46.22、ペルソナ識別率(PD)66.67%で全指標において最良または最良水準を達成。GPT-4oやClaudeとの直接比較はないが、同条件下で既存選好最適化手法を全面的に上回る。プライバシー以外のユーザー嗜好(効率・コスト感度等)への拡張も示唆されており、パーソナライズされた実用AIエージェント開発に有意義な貢献をしている。 -
hf-papers 1日前 4研究者ら、LLMエージェントの複数ユーザー対応に深刻な限界を発見Multi-User Large Language Model Agents
複数ユーザーの権限・目的を同時処理する「マルチプリンシパル」設定を初めて体系的に研究。 GPT・Claude・Geminiなど19モデルを3シナリオで評価し、最良モデルでも深刻な欠陥を確認。 企業導入が進むLLMエージェントのアクセス制御・プライバシー設計に警鐘を鳴らす。
解説 本論文はスタンフォード大学・KAUST・MITらの共同研究で、LLMエージェントを複数ユーザーが同時利用する「マルチプリンシパル設定」を経済学のプリンシパル・エージェント理論に基づき形式化した初の体系的研究。現行のLLMは単一ユーザー向けチャットテンプレートとSFT/RLHFで学習されており、複数ユーザーの役割・権限・プライバシーをネイティブに扱う機構を持たないという根本問題を指摘。評価ベンチマーク「Muses-Bench」として3シナリオを設計:①複数ユーザーの命令が衝突した際の優先順位判断(F1スコア)と実行忠実度、②機密リソースへのアクセス制御(プライバシー・ユーティリティのトレードオフ)、③部分情報開示下での会議スケジューリング。GPT-5.1、Claude-Sonnet-4.5、Gemini-3-Proら19モデルを比較した結果、Gemini-3-Proが平均85.6で最高性能を記録。しかし全モデルで共通の弱点が判明:ユーザー間衝突時の命令実行精度が大幅低下、多ターン対話でプライバシー保護が段階的に崩壊(4ターンで0.95→0.75以下)、参加者増加に伴い調整成功率が急落。企業向けAIアシスタントやチームワークフロー統合の実用化に向け、ネイティブマルチユーザープロトコルや衝突解決の学習目標設計が必須と示唆する。 -
arxiv-cs-ai 2日前 4研究者ら、複数ユーザーによるLLMエージェント利用を初めて理論化Multi-User Large Language Model Agents
LLMエージェントを複数ユーザーが同時利用する状況を多主体意思決定問題として初めて形式化した研究が登場。 役割・権限・プライバシーが異なるユーザー間の利益相反や情報非対称性を分析し、既存の単一ユーザー最適化モデルの限界を指摘。 組織・チームでのAIエージェント導入が加速する中、現実的な多ユーザー対応の設計指針を提供する枠組みとして注目される。
解説 本論文は、LLMエージェントが単一ユーザーではなく複数ユーザーに同時対応する「マルチユーザー・マルチプリンシパル」設定を初めて体系的に研究したものです。従来のGPT-4oやClaudeなどのLLMシステムは、1人の主体(ユーザーまたはオペレーター)の指示を唯一の権威として扱う単一プリンシパルパラダイムで設計されていますが、チームや組織のツールとして統合される現実では、異なる役割・権限・目的を持つ複数のユーザーが同一エージェントを利用するケースが増加しています。本研究では、この状況を多主体意思決定問題(multi-principal decision problem)として数学的に定式化し、権限の階層構造・利益相反・情報の非対称性・プライバシー制約をどう扱うかを議論します。実験では既存LLMがこのマルチユーザー設定でどのような失敗を犯すかを示し、特定ユーザーへの過度な忖度や情報漏洩リスクを明らかにしています。実用面では、企業内ワークフロー・医療チーム・法務組織など複数の意思決定者が関わる場面への応用が見込まれ、「誰の指示を優先するか」という根本的な設計問題に対する理論的基盤を提供する点で重要な貢献です。 -
anthropic-news 2ヶ月前 3Anthropic、Claudeへの広告掲載を永久に行わないと宣言Claude is a space to think
AnthropicがClaudeに広告を一切表示しない方針を公式に表明した。 AI会話の個人的・深層的な性質を守るため、回答の歪みとなる広告収益モデルを明確に否定。 収益は企業契約・有料サブスクで確保し、低価格プランも検討中で利用者の信頼獲得を狙う。