<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Projects on Zhao Weidong Home Page</title><link>https://wdongz.github.io/blog/projects/</link><description>Recent content in Projects on Zhao Weidong Home Page</description><generator>Hugo -- 0.154.4</generator><language>en-us</language><lastBuildDate>Mon, 12 Jan 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://wdongz.github.io/blog/projects/index.xml" rel="self" type="application/rss+xml"/><item><title>技术复盘：从零构建以撒式 2D Roguelike 框架</title><link>https://wdongz.github.io/blog/projects/roguelike-dev-log/</link><pubDate>Mon, 12 Jan 2026 00:00:00 +0000</pubDate><guid>https://wdongz.github.io/blog/projects/roguelike-dev-log/</guid><description>基于 Unity 实现的类以撒随机地牢与道具系统开发实录</description></item><item><title>基于逆向规划的玩家意图识别系统：在 Unity 中的实现与架构分析</title><link>https://wdongz.github.io/blog/projects/coplayer/</link><pubDate>Sun, 11 Jan 2026 00:00:00 +0000</pubDate><guid>https://wdongz.github.io/blog/projects/coplayer/</guid><description>&lt;p&gt;在合作型游戏或复杂交互系统中，赋予 AI 智能体“心理理论”（Theory of Mind）能力是提升交互体验的关键。这种能力使 AI 能够通过观察玩家的低级操作（Action），逆向推断其高级意图（Goal）。本文将深入解析在 Unity 引擎中实现的一套逆向规划（Inverse Planning）系统，探讨其如何通过数学建模与启发式搜索实现高效的玩家行动预测。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="系统逻辑架构综述"&gt;系统逻辑架构综述&lt;/h2&gt;
&lt;p&gt;该系统的核心任务是解决一个典型的逆向概率问题：给定当前世界状态 $s$ 和观察到的动作 $a$，推断玩家正在执行特定顶层目标 $\sigma$（如某个特定菜谱）的概率。&lt;/p&gt;
&lt;p&gt;系统架构由 &lt;code&gt;GoalLikelihoodEvaluator&lt;/code&gt;（似然评估器）作为计算核心，并依赖 &lt;code&gt;RecipeManager&lt;/code&gt;（食谱管理器）提供静态的配方依赖关系与动态的游戏状态权威。整个推断流程可以概括为：从原始动作观测开始，经过环境约束过滤、理性代价估算、概率分布转换，最终通过贝叶斯框架完成似然聚合。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="1-约束识别目标检索与依赖剪枝"&gt;1. 约束识别：目标检索与依赖剪枝&lt;/h2&gt;
&lt;p&gt;推断的第一步是确定在当前环境下，哪些子目标（Subgoals）在逻辑上是可行的。系统不会盲目评估所有潜在任务，而是通过 &lt;code&gt;RecipeManager&lt;/code&gt; 查询候选目标 $\sigma$ 的动态依赖图。&lt;/p&gt;
&lt;p&gt;通过 &lt;code&gt;GetUnconstrainedGoals&lt;/code&gt; 接口，系统会递归检查配方树的执行进度。例如，若“番茄汤”目标要求“切碎的番茄”和“烧开的水”，而环境状态显示水已烧开，则系统会将搜索空间剪枝，仅保留“切碎番茄”作为当前的&lt;strong&gt;原始目标（Primitive Goal）&lt;/strong&gt;。这种基于先验逻辑的过滤极大地降低了后续代价计算的维度。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="2-估值建模理性决策假设与启发式代价"&gt;2. 估值建模：理性决策假设与启发式代价&lt;/h2&gt;
&lt;p&gt;系统的预测能力建立在**理性假设（Rationality Assumption）**之上：即假设玩家倾向于以最小的代价完成任务。为此，系统需要为每个有效的子目标 $g$ 计算启发式代价 $Q$。&lt;/p&gt;
&lt;p&gt;$Q$ 值的计算由两部分组成。首先是&lt;strong&gt;空间成本&lt;/strong&gt;，即智能体位置与所需食材之间的欧几里得距离；其次是&lt;strong&gt;状态转换成本&lt;/strong&gt;，系统会扫描场景快照（WorldStateSnapshot）以寻找最近的交互设备（如砧板或锅具），并将设备距离与操作耗时（如切菜所需的固定时长）累加。若关键道具在当前快照中缺失，系统将施加极大的惩罚项，从而在数学上抑制该目标产生的似然度。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="3-概率转换玻尔兹曼分布下的噪声处理"&gt;3. 概率转换：玻尔兹曼分布下的噪声处理&lt;/h2&gt;
&lt;p&gt;原始的代价 $Q$ 值不能直接用于概率推断，因为现实中的玩家行为往往包含噪声或次优决策。系统采用玻尔兹曼分布（Boltzmann Distribution）将代价映射为概率空间：&lt;/p&gt;
&lt;p&gt;$$P(g | s, \sigma) = \frac{e^{-\beta \cdot Q(s, g)}}{\sum_{g&amp;rsquo; \in UC} e^{-\beta \cdot Q(s, g&amp;rsquo;)}}$$&lt;/p&gt;
&lt;p&gt;在该公式中，$Q(s, g)$ 代表启发式代价，而参数 $\beta$（理性系数）决定了系统对“非理性”行为的容忍度。高 $\beta$ 值意味着系统假设玩家高度专业，细微的代价差异也会导致概率分布的剧烈偏向；低 $\beta$ 值则使系统表现得更加稳健，能够处理操作失误或不确定性带来的干扰。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="4-动作匹配上下文关联验证"&gt;4. 动作匹配：上下文关联验证&lt;/h2&gt;
&lt;p&gt;在确定了各子目标的先验概率 $P(g | s, \sigma)$ 后，系统需要验证观察到的实际动作 $a$ 与子目标 $g$ 的匹配程度。这一步通过 &lt;code&gt;IsActionRelevantToGoal&lt;/code&gt; 逻辑实现。&lt;/p&gt;</description></item><item><title>EVL-LLMs：大语言模型可视化素养（Visualization Literacy）的系统性评估框架</title><link>https://wdongz.github.io/blog/projects/evl-llms/</link><pubDate>Sun, 28 Dec 2025 00:00:00 +0000</pubDate><guid>https://wdongz.github.io/blog/projects/evl-llms/</guid><description>&lt;p&gt;随着多模态大语言模型（MLLMs）的飞速发展，模型不仅需要理解文本，更需要具备处理图形化数据的能力。然而，如何量化评估 LLM 在可视化领域的“素养”——即生成准确数据、构建合规图表以及从视觉表示中提取深度信息的能力——成为了一个关键的科研命题。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;EVL-LLMs&lt;/strong&gt; 项目建立了一套自动化的端到端流水线，通过合成数据生成、视觉渲染与自动化提问，对 LLM 的可视化素养进行闭环评估。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="一-可视化素养visualization-literacy的定义与挑战"&gt;一、 可视化素养（Visualization Literacy）的定义与挑战&lt;/h2&gt;
&lt;p&gt;可视化素养通常指个体从图形中读取、解释和呈现数据的能力。对于大语言模型而言，这一能力被拆解为两个核心维度：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&lt;strong&gt;构造能力（Construction）&lt;/strong&gt;：根据特定语境（Context）生成结构化数据并转化为代码渲染图表。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;解读能力（Interpretation）&lt;/strong&gt;：针对生成的图表，识别极值、趋势、异常值或进行数据比较。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;在实际评估中，传统的静态数据集易受训练数据污染（Data Contamination）的影响。因此，EVL-LLMs 采用&lt;strong&gt;合成数据流水线&lt;/strong&gt;，确保评估样本的原创性与任务的针对性。&lt;/p&gt;
&lt;hr&gt;
&lt;h2 id="二-evl-llms-评估流水线架构"&gt;二、 EVL-LLMs 评估流水线架构&lt;/h2&gt;
&lt;p&gt;该项目实现了一个高度模块化的流水线，其核心逻辑由四个阶段组成：数据合成、视觉渲染、问题生成与闭环验证。&lt;/p&gt;
&lt;h3 id="21-任务输入与语境定义"&gt;2.1 任务输入与语境定义&lt;/h3&gt;
&lt;p&gt;系统接收三个关键参数作为元输入：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;Context (语境)&lt;/strong&gt;：定义数据集的业务背景（如：某专业学生的平均分）。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Chart Type (图表类型)&lt;/strong&gt;：指定视觉表现形式（Line Chart, Bar Chart, etc.）。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;Vis Task (视觉任务)&lt;/strong&gt;：定义评估的认知维度（如：Find Extremum, Trend Detection）。&lt;/li&gt;
&lt;/ul&gt;
&lt;hr&gt;
&lt;h2 id="三-技术实现核心细节"&gt;三、 技术实现核心细节&lt;/h2&gt;
&lt;h3 id="31-基于-llm-的合成数据生成"&gt;3.1 基于 LLM 的合成数据生成&lt;/h3&gt;
&lt;p&gt;在 &lt;code&gt;utils.py&lt;/code&gt; 中，系统利用 OpenAI API 通过提示词工程（Prompt Engineering）引导模型生成符合统计分布的合成数据。&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;strong&gt;一致性约束&lt;/strong&gt;：生成的 &lt;code&gt;dataset.csv&lt;/code&gt; 必须严格遵循 &lt;code&gt;context&lt;/code&gt; 的语义逻辑。&lt;/li&gt;
&lt;li&gt;&lt;strong&gt;复杂度控制&lt;/strong&gt;：根据 &lt;code&gt;vis_task&lt;/code&gt; 的难度，动态调整数据量和噪声水平。&lt;/li&gt;
&lt;/ul&gt;
&lt;h3 id="32-自动化视觉渲染"&gt;3.2 自动化视觉渲染&lt;/h3&gt;
&lt;p&gt;系统利用 Python 的 &lt;code&gt;pandas&lt;/code&gt; 和 &lt;code&gt;matplotlib&lt;/code&gt; 库将抽象数据转化为像素。为了确保评估的客观性，渲染过程采用标准化的样式配置，避免了色彩过度修饰对模型识别带来的偏差。&lt;/p&gt;
&lt;p&gt;$$\text{Image_Quality} = f(\text{Resolution}, \text{Label_Clarity}, \text{Data_Density})$$&lt;/p&gt;</description></item></channel></rss>