Boss 战演示

技术复盘:从零构建以撒式 2D Roguelike 框架

技术复盘:从零构建以撒式 2D Roguelike 框架 🚀 项目概览 本项目是一款 2D 俯视角 Roguelike 动作游戏。开发核心目标是复刻类似《以撒的结合》的程序化关卡生成与高度可堆叠的道具系统。 引擎版本: Unity 2022.3 LTS 核心挑战: 随机地图的拓扑一致性、基于 ScriptableObject 的解耦道具系统、多层级 AI 行为树。 🛠 关键技术实现 1. 程序化随机房间生成算法 (Procedural Room Generation) 为了实现“以撒式”的布局,我放弃了简单的网格填充,采用了一种基于深度优先搜索 (DFS) 变体的增长算法。 逻辑流程: 初始化中心起始房间。 利用队列维护待生成的出口,随机尝试向四周伸展。 约束控制: 通过设置 MaxRooms 和 DeadEnd 概率,确保地图既不会无限延伸,也不会过于拥挤。 特殊房间放置: 算法会在距离起点最远的分支末端自动计算并放置 Boss 房,在侧支放置 商店房。 2. 高扩展性道具与子弹修改器系统 Roguelike 的灵魂在于道具堆叠。为了避免 if-else 爆炸,我采用了装饰器模式 (Decorator Pattern) 与 ScriptableObject 相结合的方案。 技术亮点: Data-Driven Design: 每一个道具都是一个 ScriptableObject,包含修改属性(攻击力、攻速)和子弹特效(分裂、追踪、反弹)。 计算管道: 玩家射击时,子弹会经过一个 ModifierChain,依次应用当前所有道具的效果。 解耦: 道具系统与玩家逻辑完全解耦,新增一个道具只需新建一个配置文件,无需修改一行代码。 3. 多样化 AI 决策逻辑:状态机与预警系统 针对普通小怪和复杂的 Boss,我实现了分层式的 AI 架构: ...

January 12, 2026

基于逆向规划的玩家意图识别系统:在 Unity 中的实现与架构分析

在合作型游戏或复杂交互系统中,赋予 AI 智能体“心理理论”(Theory of Mind)能力是提升交互体验的关键。这种能力使 AI 能够通过观察玩家的低级操作(Action),逆向推断其高级意图(Goal)。本文将深入解析在 Unity 引擎中实现的一套逆向规划(Inverse Planning)系统,探讨其如何通过数学建模与启发式搜索实现高效的玩家行动预测。 系统逻辑架构综述 该系统的核心任务是解决一个典型的逆向概率问题:给定当前世界状态 $s$ 和观察到的动作 $a$,推断玩家正在执行特定顶层目标 $\sigma$(如某个特定菜谱)的概率。 系统架构由 GoalLikelihoodEvaluator(似然评估器)作为计算核心,并依赖 RecipeManager(食谱管理器)提供静态的配方依赖关系与动态的游戏状态权威。整个推断流程可以概括为:从原始动作观测开始,经过环境约束过滤、理性代价估算、概率分布转换,最终通过贝叶斯框架完成似然聚合。 1. 约束识别:目标检索与依赖剪枝 推断的第一步是确定在当前环境下,哪些子目标(Subgoals)在逻辑上是可行的。系统不会盲目评估所有潜在任务,而是通过 RecipeManager 查询候选目标 $\sigma$ 的动态依赖图。 通过 GetUnconstrainedGoals 接口,系统会递归检查配方树的执行进度。例如,若“番茄汤”目标要求“切碎的番茄”和“烧开的水”,而环境状态显示水已烧开,则系统会将搜索空间剪枝,仅保留“切碎番茄”作为当前的原始目标(Primitive Goal)。这种基于先验逻辑的过滤极大地降低了后续代价计算的维度。 2. 估值建模:理性决策假设与启发式代价 系统的预测能力建立在**理性假设(Rationality Assumption)**之上:即假设玩家倾向于以最小的代价完成任务。为此,系统需要为每个有效的子目标 $g$ 计算启发式代价 $Q$。 $Q$ 值的计算由两部分组成。首先是空间成本,即智能体位置与所需食材之间的欧几里得距离;其次是状态转换成本,系统会扫描场景快照(WorldStateSnapshot)以寻找最近的交互设备(如砧板或锅具),并将设备距离与操作耗时(如切菜所需的固定时长)累加。若关键道具在当前快照中缺失,系统将施加极大的惩罚项,从而在数学上抑制该目标产生的似然度。 3. 概率转换:玻尔兹曼分布下的噪声处理 原始的代价 $Q$ 值不能直接用于概率推断,因为现实中的玩家行为往往包含噪声或次优决策。系统采用玻尔兹曼分布(Boltzmann Distribution)将代价映射为概率空间: $$P(g | s, \sigma) = \frac{e^{-\beta \cdot Q(s, g)}}{\sum_{g’ \in UC} e^{-\beta \cdot Q(s, g’)}}$$ 在该公式中,$Q(s, g)$ 代表启发式代价,而参数 $\beta$(理性系数)决定了系统对“非理性”行为的容忍度。高 $\beta$ 值意味着系统假设玩家高度专业,细微的代价差异也会导致概率分布的剧烈偏向;低 $\beta$ 值则使系统表现得更加稳健,能够处理操作失误或不确定性带来的干扰。 4. 动作匹配:上下文关联验证 在确定了各子目标的先验概率 $P(g | s, \sigma)$ 后,系统需要验证观察到的实际动作 $a$ 与子目标 $g$ 的匹配程度。这一步通过 IsActionRelevantToGoal 逻辑实现。 ...

January 11, 2026

EVL-LLMs:大语言模型可视化素养(Visualization Literacy)的系统性评估框架

随着多模态大语言模型(MLLMs)的飞速发展,模型不仅需要理解文本,更需要具备处理图形化数据的能力。然而,如何量化评估 LLM 在可视化领域的“素养”——即生成准确数据、构建合规图表以及从视觉表示中提取深度信息的能力——成为了一个关键的科研命题。 EVL-LLMs 项目建立了一套自动化的端到端流水线,通过合成数据生成、视觉渲染与自动化提问,对 LLM 的可视化素养进行闭环评估。 一、 可视化素养(Visualization Literacy)的定义与挑战 可视化素养通常指个体从图形中读取、解释和呈现数据的能力。对于大语言模型而言,这一能力被拆解为两个核心维度: 构造能力(Construction):根据特定语境(Context)生成结构化数据并转化为代码渲染图表。 解读能力(Interpretation):针对生成的图表,识别极值、趋势、异常值或进行数据比较。 在实际评估中,传统的静态数据集易受训练数据污染(Data Contamination)的影响。因此,EVL-LLMs 采用合成数据流水线,确保评估样本的原创性与任务的针对性。 二、 EVL-LLMs 评估流水线架构 该项目实现了一个高度模块化的流水线,其核心逻辑由四个阶段组成:数据合成、视觉渲染、问题生成与闭环验证。 2.1 任务输入与语境定义 系统接收三个关键参数作为元输入: Context (语境):定义数据集的业务背景(如:某专业学生的平均分)。 Chart Type (图表类型):指定视觉表现形式(Line Chart, Bar Chart, etc.)。 Vis Task (视觉任务):定义评估的认知维度(如:Find Extremum, Trend Detection)。 三、 技术实现核心细节 3.1 基于 LLM 的合成数据生成 在 utils.py 中,系统利用 OpenAI API 通过提示词工程(Prompt Engineering)引导模型生成符合统计分布的合成数据。 一致性约束:生成的 dataset.csv 必须严格遵循 context 的语义逻辑。 复杂度控制:根据 vis_task 的难度,动态调整数据量和噪声水平。 3.2 自动化视觉渲染 系统利用 Python 的 pandas 和 matplotlib 库将抽象数据转化为像素。为了确保评估的客观性,渲染过程采用标准化的样式配置,避免了色彩过度修饰对模型识别带来的偏差。 $$\text{Image_Quality} = f(\text{Resolution}, \text{Label_Clarity}, \text{Data_Density})$$ ...

December 28, 2025