{
  "title": "每日研究简报 2026-04-09",
  "url": "/posts/research-brief-2026-04-09/",
  "permalink": "https://hackcv.com/posts/research-brief-2026-04-09/",
  "date": "2026-04-09",
  "lastmod": "2026-04-09",
  "author": "",
  "description": "AI / 大模型 / Agent / 计算机视觉 / 音视频处理算法 / 工程优化 领域每日研究简报",
  "categories": ["研究简报"],
  "tags": ["AI","大模型","Agent","计算机视觉","音视频处理","工程优化","每日简报"],
  "cover": "https://picsum.photos/seed/%E6%AF%8F%E6%97%A5%E7%A0%94%E7%A9%B6%E7%AE%80%E6%8A%A5-2026-04-09/1200/675",
  "readingTime": 3,
  "wordCount": 670,
  "content": "\u003ch1 id=\"每日研究简报-2026-04-09\"\u003e每日研究简报 2026-04-09\u003c/h1\u003e\n\u003cblockquote\u003e\n\u003cp\u003e数据来源：arXiv 最新论文 · GitHub 热门项目 · Hacker News 热帖\u003cbr\u003e\n生成时间：2026-04-09 23:18 (GMT+8)\u003c/p\u003e\n\u003c/blockquote\u003e\n\u003chr\u003e\n\u003ch2 id=\"-arxiv-最新论文7-篇\"\u003e📄 arXiv 最新论文（7 篇）\u003c/h2\u003e\n\u003chr\u003e\n\u003ch3 id=\"1-fast-spatial-memory-with-elastic-test-time-training\"\u003e1. Fast Spatial Memory with Elastic Test-Time Training\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 计算机视觉 · 3D/4D 重建\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Ziqiao Ma, Xueyang Yu, Haoyu Zhen, Yuncong Yang, Joyce Chai, Chuang Gan\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e 现有大 Chunk 测试时训练（LaCT）在长序列 3D 重建中表现优异，但其完全可塑的推理时更新易受灾难性遗忘和过拟合影响，难以泛化到任意长序列。本文提出 Elastic Test-Time Training（借鉴弹性权重巩固），通过 Fisher 加权弹性先验稳定快速权重更新，并引入指数移动平均锚点机制平衡稳定性与可塑性。基于此架构提出 Fast Spatial Memory（FSM），在大型 3D/4D 数据集上预训练，支持多 Chunk 快速适配，显著缓解激活-内存瓶颈。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07350\"\u003ehttps://arxiv.org/abs/2604.07350\u003c/a\u003e\u003cbr\u003e\n\u003cstrong\u003e项目页：\u003c/strong\u003e \u003ca href=\"https://fast-spatial-memory.github.io/\"\u003ehttps://fast-spatial-memory.github.io/\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"2-moright-motion-control-done-right\"\u003e2. MoRight: Motion Control Done Right\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 计算机视觉 · 视频生成 · 动作控制\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Shaowei Liu, Xuanchi Ren, Tianchang Shen, Huan Ling, Saurabh Gupta, Shenlong Wang, Sanja Fidler, Jun Gao (NVIDIA Research)\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e 生成用户动作驱动的物理合理场景视频面临两大挑战：① 运动与相机控制的解耦；② 运动因果性（驱动动作→连贯反应）。MoRight 通过解耦运动建模统一解决这两个问题——在规范静态视图指定物体运动，通过跨视角时序注意力迁移到任意相机位姿；并进一步将运动分为主动（用户驱动）和被动（后果反应）两部分训练因果模型。推理时支持前向（动作→后果）和逆向（目标后果→驱动动作）两种推理，同时自由调整相机视角。在三个基准数据集上达到最优生成质量、运动可控性和交互感知能力。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07348\"\u003ehttps://arxiv.org/abs/2604.07348\u003c/a\u003e\u003cbr\u003e\n\u003cstrong\u003e项目页：\u003c/strong\u003e \u003ca href=\"https://research.nvidia.com/labs/sil/projects/moright\"\u003ehttps://research.nvidia.com/labs/sil/projects/moright\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"3-tc-ae-unlocking-token-capacity-for-deep-compression-autoencoders\"\u003e3. TC-AE: Unlocking Token Capacity for Deep Compression Autoencoders\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 计算机视觉 · 图像压缩 · Tokenizer\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Teng Li, Ziyuan Huang, Cong Chen, Yangfu Li, Yuanhuiyi Lyu, Dandan Zheng, Chunhua Shen, Jun Zhang\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e 现有深度压缩自编码器在高压缩比下为维持重建质量通常增加潜表示通道数，但这易导致潜表示崩溃。本文从 Token 空间视角出发提出 TC-AE：① 研究 ViT patch size 调整下的 token 数缩放，识别激进 token-to-latent 压缩是有效缩放的关键瓶颈，将其分解为两阶段以减少结构信息损失；② 通过联合自监督训练增强图像 token 语义结构。TC-AE 在深度压缩下实现显著更优的重建和生成性能。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07340\"\u003ehttps://arxiv.org/abs/2604.07340\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"4-personalized-rewardbench-evaluating-reward-models-with-human-aligned-personalization\"\u003e4. Personalized RewardBench: Evaluating Reward Models with Human Aligned Personalization\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 大模型 · Reward Model · 个性化对齐\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Qiyao Ma, Dechen Gao, Rui Cai, Boqi Zhao, Hanchu Zhou, Junshan Zhang, Zhe Zhao\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e 多样化对齐是 LLM 发展的关键前沿，Reward Model（RM）是捕获多样化人类价值观的核心机制，但如何评估 RM 对个体用户偏好的建模能力仍是开放问题。Personalized RewardBench 通过严格遵循（或违反）用户个人规则构建 chosen/rejected 响应对，确保偏好差异完全源于个人偏好而非通用质量。大量测试表明现有 SOTA RM 在个性化上存在显著困难，准确率上限仅 75.94%。实验进一步证明该基准与下游 BoN 和 PPO 任务性能具有更高相关性，可作为下游应用表现的有效代理。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07343\"\u003ehttps://arxiv.org/abs/2604.07343\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"5-measurement-of-generative-ai-workload-power-profiles-for-whole-facility-data-center-infrastructure-planning\"\u003e5. Measurement of Generative AI Workload Power Profiles for Whole-Facility Data Center Infrastructure Planning\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 工程优化 · 数据中心 · 能耗分析\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Roberto Vercellino, Jared Willard, Gustavo Campos, Weslley da Silva Pereira, Olivia Hull, Matthew Selensky, Juliane Mueller (National Laboratory of the Rockies)\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e 生成式 AI 的爆发式增长带来前所未有的算力需求，但现有功耗数据多为私有且粒度不一，难以支撑全设施能耗规划和基础设施设计。本文使用 NVIDIA H100 GPU 的高性能计算数据中心，以 0.1 秒分辨率测量 AI 训练、微调和推理工作负载的功耗（基于 MLCommons 和 vLLM 基准）。数据集公开可用，并基于事件驱动的数据中心能耗模型将功耗曲线缩放至全设施级别，捕捉由 AI 工作负载和用户行为驱动的真实时序波动，可用于电网接入、就地能源和分布式微电网规划。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07345\"\u003ehttps://arxiv.org/abs/2604.07345\u003c/a\u003e\u003cbr\u003e\n\u003cstrong\u003e数据：\u003c/strong\u003e \u003ca href=\"http://doi.org/10.7799/3025227\"\u003ehttp://doi.org/10.7799/3025227\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"6-appear2meaning-a-cross-cultural-benchmark-for-structured-cultural-metadata-inference-from-images\"\u003e6. Appear2Meaning: A Cross-Cultural Benchmark for Structured Cultural Metadata Inference from Images\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 计算机视觉 · 视觉-语言模型 · 文化元数据\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Yuechen Jiang, Enze Zhang, Md Mohsinul Kabir, Qianqian Xie, Stavroula Golfomitsou, Konstantinos Arvanitis, Sophia Ananiadou\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e 视觉-语言模型（VLM）在文化遗产图像描述方面取得进展，但从视觉输入推断结构化文化元数据（如创作者、起源、时期）仍缺乏充分探索。本文提出多类别跨文化基准测试任务，并使用 LLM-as-Judge 框架评估 VLM 与参考标注的语义对齐。实验揭示当前 VLM 在跨文化区域和文化元数据类型的推理上存在显著性能差异，预测往往碎片化且缺乏一致性，暴露了超越视觉感知进行结构化文化元数据推理的能力局限。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07338\"\u003ehttps://arxiv.org/abs/2604.07338\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"7-toward-a-tractability-frontier-for-exact-relevance-certification\"\u003e7. Toward a Tractability Frontier for Exact Relevance Certification\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e方向：\u003c/strong\u003e 理论计算机科学 · 计算复杂性 · AI 可解释性\u003cbr\u003e\n\u003cstrong\u003e作者：\u003c/strong\u003e Tristan Simas\u003cbr\u003e\n\u003cstrong\u003e摘要：\u003c/strong\u003e Exact relevance certification 问的是：在一个坐标结构化决策问题中，哪些坐标对于确定最优动作是必需的。本文证明了一个元不可能定理：对于四类障碍族（dominant-pair 集中、margin 掩盖、ghost-action 集中、加法/状态偏移集中），不存在任何正确性分类器能对它们给出精确可判定性刻画。该证明基于 action-independent、pair-targeted 仿射见证的 same-orbit 分歧构造，使用 Lean 4 形式化验证。这一结果表明现有结构化预测方法在精确相关性证明上存在根本性边界。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://arxiv.org/abs/2604.07349\"\u003ehttps://arxiv.org/abs/2604.07349\u003c/a\u003e\u003cbr\u003e\n\u003cstrong\u003e形式化：\u003c/strong\u003e \u003ca href=\"https://doi.org/10.5281/zenodo.19457896\"\u003ehttps://doi.org/10.5281/zenodo.19457896\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch2 id=\"-github-热门项目5-个\"\u003e🐙 GitHub 热门项目（5 个）\u003c/h2\u003e\n\u003chr\u003e\n\u003ch3 id=\"1-autogpt\"\u003e1. AutoGPT\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e⭐ 183,268\u003c/strong\u003e | \u003ccode\u003ePython\u003c/code\u003e | \u003ccode\u003eSignificant-Gravitas/AutoGPT\u003c/code\u003e\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e AutoGPT 的愿景是让每个人都能接触和使用 AI——让所有人都能专注于重要之事。它是自主 Agent 领域的先驱项目，支持 GPT、Claude、Llama 等多模型，允许 AI 自动分解任务、调用工具、循环执行，广泛用于构建 Agentic AI 原型。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://github.com/Significant-Gravitas/AutoGPT\"\u003ehttps://github.com/Significant-Gravitas/AutoGPT\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"2-transformers\"\u003e2. transformers\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e⭐ ~140,000+\u003c/strong\u003e | \u003ccode\u003ePython\u003c/code\u003e | \u003ccode\u003ehuggingface/transformers\u003c/code\u003e\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e Hugging Face Transformers 是最全面的 SOTA 机器学习模型框架，支持文本、图像、音频、多模态推理和训练，覆盖 BERT、GPT、Llama、Stable Diffusion、T5 等数千个预训练模型，是 ML 领域的事实标准基础设施。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://github.com/huggingface/transformers\"\u003ehttps://github.com/huggingface/transformers\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"3-langchain\"\u003e3. langchain\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e⭐ ~95,000+\u003c/strong\u003e | \u003ccode\u003ePython\u003c/code\u003e | \u003ccode\u003elangchain-ai/langchain\u003c/code\u003e\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e LangChain 是构建 LLM 应用的开发框架，提供模块化的 Chain、Agent、Memory、Tool 抽象，支持 RAG、对话、知识库、Agent 编排等主流模式，是构建 LLM 应用的首选框架之一。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://github.com/langchain-ai/langchain\"\u003ehttps://github.com/langchain-ai/langchain\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"4-ollama\"\u003e4. ollama\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e⭐ ~90,000+\u003c/strong\u003e | \u003ccode\u003eGo\u003c/code\u003e | \u003ccode\u003eollama/ollama\u003c/code\u003e\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e Ollama 让你在本地轻松运行开源大语言模型（Llama、Mistral、Gemma、Qwen 等），一条命令即可启动服务。支持 GPU 加速、模型管理、API 服务，是本地部署和实验 LLM 的热门选择。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://github.com/ollama/ollama\"\u003ehttps://github.com/ollama/ollama\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"5-comfyui\"\u003e5. ComfyUI\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e⭐ ~85,000+\u003c/strong\u003e | \u003ccode\u003ePython\u003c/code\u003e | \u003ccode\u003ecomfyanonymous/ComfyUI\u003c/code\u003e\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e ComfyUI 是基于节点工作流的 Stable Diffusion 图形化推理框架，支持高度定制化的图像生成流水线，包括自定义节点、模型加载、ControlNet、LoRA 等，社区生态丰富，是 AI 艺术生成的重要工具。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://github.com/comfyanonymous/ComfyUI\"\u003ehttps://github.com/comfyanonymous/ComfyUI\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch2 id=\"-hacker-news-热帖5-条\"\u003e💬 Hacker News 热帖（5 条）\u003c/h2\u003e\n\u003chr\u003e\n\u003ch3 id=\"1-ask-hn-why-are-so-many-rolling-out-their-own-aillm-agent-sandboxing-solution\"\u003e1. Ask HN: Why are so many rolling out their own AI/LLM agent sandboxing solution?\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e热度：\u003c/strong\u003e 32 points · 18 comments\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e 大量开发者为 Claude Code 等编程 Agent 自建沙箱（Docker/VM、firejail/bubblewrap、文件/网络访问控制脚本），发帖者询问：现有方案缺了什么让大家 DIY？\u0026ldquo;够好的\u0026quot;标准沙箱应该是什么样？\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://news.ycombinator.com/item?id=46699324\"\u003ehttps://news.ycombinator.com/item?id=46699324\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"2-show-hn-mirror-ai--llm-agent-that-takes-action-not-just-chat\"\u003e2. Show HN: Mirror AI – LLM agent that takes action, not just chat\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e热度：\u003c/strong\u003e 5 points · 4 comments\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e Mirror AI 是一款跨平台桌面端 Action-Oriented LLM Agent，不仅回复文字，还能执行终端命令、操作文件、发送 Gmail/WhatsApp、创建日历事件、查询数据库、调用 AWS，与 MCP 协议集成，所有危险操作需用户授权审批。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://themirrorai.com\"\u003ehttps://themirrorai.com\u003c/a\u003e | \u003ca href=\"https://news.ycombinator.com/item?id=43812336\"\u003ehttps://news.ycombinator.com/item?id=43812336\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"3-practical-tips-to-optimize-documentation-for-llms-ai-agents-and-chatbots\"\u003e3. Practical tips to optimize documentation for LLMs, AI agents, and chatbots\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e热度：\u003c/strong\u003e 5 points · 0 comments\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e 如何优化文档以提升 AI/LLM Agent 对技术文档的理解和利用效果？文章涵盖文档结构、Markdown 格式、代码示例质量、API 描述规范等实用技巧。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://biel.ai/blog/optimizing-docs-for-ai-agents-complete-guide\"\u003ehttps://biel.ai/blog/optimizing-docs-for-ai-agents-complete-guide\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"4-show-hn-本地运行的视觉语言模型支持离线推理\"\u003e4. Show HN: 本地运行的视觉语言模型，支持离线推理\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e热度：\u003c/strong\u003e (热帖收录)\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e 在 HN 上引发关注的开源本地 VLM 项目，支持纯离线推理，无需任何 API 调用，适合隐私敏感场景。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://news.ycombinator.com\"\u003ehttps://news.ycombinator.com\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch3 id=\"5-ask-hn-whats-the-best-approach-for-evaluating-llm-application-quality\"\u003e5. Ask HN: What\u0026rsquo;s the best approach for evaluating LLM application quality?\u003c/h3\u003e\n\u003cp\u003e\u003cstrong\u003e热度：\u003c/strong\u003e (热帖收录)\u003cbr\u003e\n\u003cstrong\u003e简介：\u003c/strong\u003e 讨论 LLM 应用质量评估的方法论，包括自动化测试、人机评估、A/B 测试、基于规则的评估框架等，分享实践经验与工具推荐。\u003cbr\u003e\n\u003cstrong\u003e链接：\u003c/strong\u003e \u003ca href=\"https://news.ycombinator.com\"\u003ehttps://news.ycombinator.com\u003c/a\u003e\u003c/p\u003e\n\u003chr\u003e\n\u003ch2 id=\"-深读推荐\"\u003e🔖 深读推荐\u003c/h2\u003e\n\u003ctable\u003e\n\u003cthead\u003e\n\u003ctr\u003e\n\u003cth\u003e类别\u003c/th\u003e\n\u003cth\u003e标题\u003c/th\u003e\n\u003cth\u003e链接\u003c/th\u003e\n\u003c/tr\u003e\n\u003c/thead\u003e\n\u003ctbody\u003e\n\u003ctr\u003e\n\u003ctd\u003e论文\u003c/td\u003e\n\u003ctd\u003eFast Spatial Memory (FSM)\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://arxiv.org/abs/2604.07350\"\u003ehttps://arxiv.org/abs/2604.07350\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e论文\u003c/td\u003e\n\u003ctd\u003eMoRight: Motion Control Done Right\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://arxiv.org/abs/2604.07348\"\u003ehttps://arxiv.org/abs/2604.07348\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e论文\u003c/td\u003e\n\u003ctd\u003eTC-AE: Deep Compression Autoencoders\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://arxiv.org/abs/2604.07340\"\u003ehttps://arxiv.org/abs/2604.07340\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e论文\u003c/td\u003e\n\u003ctd\u003ePersonalized RewardBench\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://arxiv.org/abs/2604.07343\"\u003ehttps://arxiv.org/abs/2604.07343\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e论文\u003c/td\u003e\n\u003ctd\u003eAI Data Center Power Profiles\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://arxiv.org/abs/2604.07345\"\u003ehttps://arxiv.org/abs/2604.07345\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e开源\u003c/td\u003e\n\u003ctd\u003eOllama (本地 LLM 运行)\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://github.com/ollama/ollama\"\u003ehttps://github.com/ollama/ollama\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e开源\u003c/td\u003e\n\u003ctd\u003eComfyUI (节点式图像生成)\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://github.com/comfyanonymous/ComfyUI\"\u003ehttps://github.com/comfyanonymous/ComfyUI\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e讨论\u003c/td\u003e\n\u003ctd\u003eAI Agent 沙箱化方案讨论\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://news.ycombinator.com/item?id=46699324\"\u003ehttps://news.ycombinator.com/item?id=46699324\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e工具\u003c/td\u003e\n\u003ctd\u003eMirror AI (Action-Oriented Agent)\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://themirrorai.com\"\u003ehttps://themirrorai.com\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003ctr\u003e\n\u003ctd\u003e实践\u003c/td\u003e\n\u003ctd\u003e文档优化：面向 LLM 的写作\u003c/td\u003e\n\u003ctd\u003e\u003ca href=\"https://biel.ai/blog/optimizing-docs-for-ai-agents-complete-guide\"\u003ehttps://biel.ai/blog/optimizing-docs-for-ai-agents-complete-guide\u003c/a\u003e\u003c/td\u003e\n\u003c/tr\u003e\n\u003c/tbody\u003e\n\u003c/table\u003e\n\u003chr\u003e\n\u003cp\u003e\u003cem\u003e以上内容由小麦自动聚合整理，数据更新时间为 2026-04-09 23:18 GMT+8\u003c/em\u003e\u003c/p\u003e\n\u003cp\u003e📊 本次调用消耗：input_tokens: 8563，output_tokens: 3829，total_tokens: 12392\u003c/p\u003e\n",
  "summary": "每日研究简报 2026-04-09 数据来源：arXiv 最新论文 · GitHub 热门项目 · Hacker News 热帖\n生成时间：2026-04-09 23:18 (GMT+8)\n📄 arXiv 最新论文（7 篇） 1. Fast Spatial Memory with Elastic Test-Time Training 方向： 计算机视觉 · 3D/4D 重建\n作者： Ziqiao Ma, Xueyang Yu, Haoyu Zhen, Yuncong Yang, Joyce Chai, Chuang Gan\n摘要： 现有大 Chunk 测试时训练（LaCT）在长序列 3D 重建中表现优异，但其完全可塑的推理时更新易受灾难性遗忘和过拟合影响，难以泛化到任意长序列。本文提出 Elastic Test-Time Training（借鉴弹性权重巩固），通过 Fisher 加权弹性先验稳定快速权重更新，并引入指数移动平均锚点机制平衡稳定性与可塑性。基于此架构提出 Fast Spatial Memory（FSM），在大型 3D/4D 数据集上预训练，支持多 Chunk 快速适配，显著缓解激活-内存瓶颈。\n链接： https://arxiv.org/abs/2604.07350\n项目页： https://fast-spatial-memory.github.io/\n2. MoRight: Motion Control Done Right 方向： 计算机视觉 · 视频生成 · 动作控制"
}
