CN120939579A - Ai智能体生成任务体系应用于景区剧本杀系统 - Google Patents
Ai智能体生成任务体系应用于景区剧本杀系统Info
- Publication number
- CN120939579A CN120939579A CN202511260998.3A CN202511260998A CN120939579A CN 120939579 A CN120939579 A CN 120939579A CN 202511260998 A CN202511260998 A CN 202511260998A CN 120939579 A CN120939579 A CN 120939579A
- Authority
- CN
- China
- Prior art keywords
- task
- player
- scenario
- tasks
- rewards
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/60—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
- A63F13/65—Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/56—Computing the motion of game characters with respect to other game characters, game objects or elements of the game scene, e.g. for simulating the behaviour of a group of virtual soldiers or for path finding
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/55—Controlling game characters or game objects based on the game progress
- A63F13/58—Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明属于游戏设计技术领域,本发明公开了AI智能体生成任务体系应用于景区剧本杀系统,包括:根据剧本杀的类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像,并对当前环境状态进行感知,生成环境画像;为每个玩家分配初始任务,使用MARL模型进行多智能体模拟,通过战略层制定叙事与调度目标,战术层分解为具体任务,结合奖励函数与剧情安全卫士机制生成个性化任务,并动态调整玩家难度系数;接收动态决策模块的输出,通过组装和渲染形成最终任务,并下发给玩家终端,玩家接收任务并交互,自动化验证任务完成状态,反馈给多模态环境感知模块,形成循环,实现景区剧本杀任务的动态生成。
Description
技术领域
本发明涉及游戏设计技术领域,更具体地说,本发明涉及一种AI智能体生成任务体系应用于景区剧本杀系统。
背景技术
目前,国内大型实地剧本杀越来越流行,受到了越来越多年轻人的青睐,剧本杀是指在预设一个剧本,根据剧本搭设实地场景,玩家在实地场景中进行角色扮演,通过完成发布的任务推进剧本剧情,直到剧本完全通关为止,再给玩家带来深度体验的同时,也具备一定的社交作用,因此,多玩家参与的大型剧本杀也越来越受到追捧。
但是现有的景区剧本杀多采用纸质任务卡或固定APP指令,这就导致任务有限且没法根据个人能力匹配合适的任务,任务有限就导致当玩家数量过多时,任务同质化严重,多个游客执行相同任务路线,易造成拥堵,也会减弱剧本的吸引力,限制玩家数量又削弱了社交属性和经济效益,与大型景区难以匹配,其次,无法为玩家分配适合的任务是因为玩家的能力各不相同,如果给能力较强的玩家分配简单任务,给能力较弱的玩家分配高难度任务,这就会导致参与感和体验感降低,给玩家不好的体验,此外,在对玩家进行个性化任务分配时,玩家的数量(景区的客流量)和当前的天气变化,都会对任务的生成和分配产生重要影响,因此,在景区剧本杀中基于AI智能体生成任务时,需要充分考虑玩家人数、能力和天气状态,进而生成可玩性极高的剧本杀任务。
发明内容
为了克服现有技术的上述缺陷,为实现上述目的,本发明提供如下技术方案:AI智能体生成任务体系应用于景区剧本杀系统,包括:
多模态环境感知模块:获取剧本杀的类型,并根据类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像,并对当前环境状态进行感知,生成环境画像;
动态决策模块:根据玩家画像和环境画像为每个玩家分配初始任务,使用MARL模型进行多智能体模拟,通过战略层制定叙事与调度目标,战术层分解为具体任务,结合奖励函数与剧情安全卫士机制生成个性化任务,并动态调整玩家难度系数;
任务生成模块:接收动态决策模块的输出,通过组装和渲染形成最终任务,并下发给玩家终端,玩家接收任务并交互,自动化验证任务完成状态,反馈给多模态环境感知模块,形成循环。
优选地,所述根据类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像的方法包括:
评价方式包括映射评估维度和测试调整方向;映射评估维度包括每个类型下玩家的评价维度和每个维度对应的评价规则,测试调整方向包括每个类型下基础小游戏的调整维度和每个维度的调整规则;
预设计一个基础小游戏,根据测试调整方向对其进行调整,生成更新小游戏,并将其推送到移动端;
在玩家游戏过程中,获取行为数据,然后根据类型对应的映射评估维度对行为数据进行处理,获取评价报告;
为每个玩家生成唯一编码,将评价报告和编码关联形成玩家画像。
优选地,所述对当前环境状态进行感知,生成环境画像的方法包括:
获取景区的客流量、分布密度和天气状态,并将其标准化为数值向量;
使用GIS工具将密度映射到景区地图上,颜色渐变表示风险,形成热力图;
将密度向量和天气向量组合成多维向量;添加元数据到多维向量上,元数据包括时间戳和风险评分;
将热力图和多维向量保存到数据中心,并通过API接口输出。
优选地,所述使用MARL模型进行多智能体模拟的方法包括:
定义状态空间、动作空间和奖励函数,从动作空间中选择一个能最大化总奖励的任务元件组合,生成一个个性化任务,并分配给最合适的玩家;
状态空间使用多层结构,包括战略层和战术层,其中,战略层的职责是从全局视角制定叙事目标和调度目标,战术层的职责是将高级指令分解为具体任务;
动作空间定义为从任务元件库中选择动作;
定义奖励函数的总奖励为体验奖励、效率奖励、剧情奖励和适应性奖励的加权总和,其中,体验奖励为负的匹配度分数,用于量化任务与玩家能力的契合度,效率奖励为负的拥堵惩罚,用于量化景区内的区域负载,剧情奖励为正的逻辑一致性分数,用于量化任务序列的连贯性,适应性奖励为正的环境调整奖金,用于量化对变量的响应;
基于玩家画像为每个玩家维护一个初始难度系数,当战术层的智能体生成任务时,预设计剧情安全卫士机制,用于对战术层输出的任务进行规则校验;若校验通过,则下发给任务生成模块;否则,重新生成;
持续监控玩家任务完成情况,如果玩家成功,正向计数器加1,如果玩家失败,则负向计数器加1,根据计数器的数值调整其个人的难度系数,并在下次任务中根据难度系数选择元件。
优选地,所述战略层的职责是从全局视角制定叙事目标和调度目标,具体来说包括:
战略层用于制定当前阶段的叙事目标和调度目标;叙事目标是指剧情推进的宏观方向,调度目标是指资源分配的宏观策略;
定义输入包括整体剧情进度、热力图、天气状况和游戏剩余时间,定义输出为高级指令,高级指令是指高层次的指导性命令,自定义决策频率。
优选地,所述战术层的职责是将高级指令分解为具体任务,包括:
接收来自战略层的高级指令,并将其分解翻译成具体的、可执行的任务元件,每个战术智能体负责一个玩家小组或一个区域;
定义输入为战略指令和微观状态,战略指令是高层次指导,微观状态包括每个玩家的任务进度和精确位置、更新后的玩家画像;定义输出为从任务元件库中为单个玩家组合出的个性化任务;
自定义决策频率且高于战略层的决策频率。
优选地,所述任务元件库包括:
任务元件是指原子级任务要素,任务元件库是指预设计的原子级任务要素数据库。
优选地,所述正向计数器、负向计数器的规则包括,若玩家成功1次,则正向计数器加1,如果玩家连续成功,则正向计数器连续加1,直到玩家失败时,正向计数器计数停止,且数值清零,同时负向计数器加1,如果玩家连续失败,则负向计数器连续加1,直到玩家成功时,负向计数器计数停止,且数值清零。
优选地,所述剧情安全卫士机制嵌入在战术层输出后,作为最终校验关卡,包括逻辑一致性、剧情锁和空间合理性检测;
逻辑一致性是指任务奖励或线索与玩家已有信息的无矛盾性,剧情锁是指任务依赖于剧情节点的解锁状态,空间合理性检测是指任务的可执行性在物理空间和时间上的合理;
规则校验通过顺序执行if-then规则链。
优选地,所述通过组装和渲染形成最终任务的方法包括:使用动态叙事生成技术,将任务要素填入模板,生成多模态输出。
本发明一种高可靠性存储芯片数据读写校验方法的技术效果和优点:
1.解决了现有景区剧本杀任务同质化、静态化导致的拥堵、体验差和规模受限等核心痛点。
2.通过多模态环境感知模块动态生成精准的玩家能力画像与环境状态画像,为个性化任务分配提供了数据基石。其核心创新在于动态决策模块,采用分层式MARL模型(战略层与战术层),实现了宏观剧情调度与微观个性化任务的协同,既能通过战略智能体优化人流分布、避免拥堵,又能通过战术智能体为每位玩家匹配符合其动态难度系数的任务,确保心流体验。剧情安全卫士机制保障了生成任务的逻辑自洽与剧情连贯性。最终,任务生成模块将任务要素生动渲染,提升沉浸感。
3.形成了一个感知-决策-执行-反馈的闭环,能在复杂多变的景区环境下(如客流、天气),实现任务的无限动态生成与精准分配,从而显著提升游戏的可玩性、社交规模和经济收益。
附图说明
图1为本发明中AI智能体生成任务体系应用于景区剧本杀系统的结构示意图;
图2为本发明中AI智能体生成任务体系应用于景区剧本杀系统的电子设备结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
请参阅图1,本实施例提供了AI智能体生成任务体系应用于景区剧本杀系统,核心创新点在于摒弃传统的“预生成-分发”模式,转而采用“感知-评估-生成-优化”的实时动态循环模式。系统将景区视为一个动态变化的数字孪生体,将玩家视为拥有不同属性的智能体,通过持续感知多方数据,运用博弈论和强化学习算法,动态生成并分配“千人千面”的任务,从而实现全局体验最优。
每生成一个任务后,系统会监控其执行效果(如完成率、玩家满意度),并在下一次循环中优化算法参数。整个系统类似于一个自适应生态系统,能处理大型景区的复杂性(如高峰期上千玩家)。
使用工具如UML或MindManager定义系统各个模块间接口。集成云计算平台(如阿里云或AWS)支持数字孪生建模,确保系统可扩展到不同规模景区。
多模态环境感知模块:获取剧本杀的类型,并根据类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像,并对当前环境状态进行感知,生成环境画像;
剧本杀类型获取是模块的起点,类型通常包括推理型(注重逻辑和线索分析)、冒险型(强调探索和物理互动)、恐怖型(侧重心理承受力和快速决策)、社交型(聚焦团队协作和角色扮演)等。
获取方式包括,当玩家注册或报名参加时,通过APP或小程序界面提供的剧本杀菜单进行选择,每个剧本杀标记有预先定义的分类标签,例如,玩家报名“古镇谋杀谜案”时,系统自动定义其关联类型为推理型,然后通过API接口传输到系统的数据中心,数据中心是系统的中央云数据库(如阿里云RDS或AWSDynamoDB),用于存储和处理类型数据,确保数据持久化和可扩展性,支持多用户并发访问。
根据类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像的方法包括:
评价方式包括映射评估维度和测试调整方向;映射评估维度包括每个类型下玩家的评价维度和每个维度对应的评价规则,测试调整方向包括每个类型下基础小游戏的调整维度和每个维度的调整规则;
预设计一个基础小游戏,根据测试调整方向对其进行调整,生成更新小游戏,并将其推送到移动端;
在玩家游戏过程中,获取行为数据,然后根据类型对应的映射评估维度对行为数据进行处理,获取评价报告;
为每个玩家生成唯一编码,将评价报告和编码关联形成玩家画像;
评价维度是指对玩家能力的评价方向,例如推理能力、观察能力等等,评价规则是指使用行为数据对评价维度的量化规则,一般可以设置为一个函数公式,例如,行为数据包括任务完成时长、错误率、求助频率、移动效率和道具使用次数等等,则推理能力的评价规则可以设定为推理能力=任务完成时长×0.3+错误率×0.5+道具使用次数×0.2;这里的在计算过程中是使用纯数字计算,不涉及量纲,且都进行归一化处理,0.3、0.5和0.2表示行为数据的权重,且权重之和应为1。
调整维度是指基础小游戏可以调节的方向,例如基础小游戏为一个寻找宝箱游戏,则可调节的方向包括障碍物的数量、可移动方向以及动态障碍物生成的间隔时间等等,这些就可以作为调整维度,调整规则可以每个维度的调整幅度,比如说,对于推理小说,基础小游戏的动态障碍物生成间隔时间缩短40%等等。
将评价报告和编码关联的方式是通过数据库键值对存储,例如,使用NoSQL数据库(如MongoDB)将唯一编码作为主键(如,玩家ID:“UUID-12345”),评价报告作为值(如{推理能力:75,观察能力:60}),并添加时间戳和版本号以支持动态更新,确保画像可快速查询和版本控制。
对当前环境状态进行感知,生成环境画像的方法包括:
获取景区的客流量、分布密度和天气状态,并将其标准化为数值向量(使用归一化,如Min-Max缩放至[0,1]);
景区的客流量和分布密度可以通过景区摄像头(可以通过YOLO检测人群)和定位设备(如iBeacon或UWB)实时统计区域流量和人群密度(采集频率可以设置为每分钟刷新)。
天气状态接入API(如中国天气网或OpenWeatherMap)获取温度、降雨、风速等,结合本地IoT传感器(如雨量计、温度计)增强精度,获取实时天气情况。
使用GIS工具(如ArcGIS或Python的Folium库)将密度映射到景区地图上,颜色渐变表示风险(如密度>50为红色),形成热力图;
将密度向量和天气向量组合成多维向量(如密度向量:[区域A:0.8,区域B:0.2],天气向量:[雨量:0.6,温度:0.5]);添加元数据到多维向量上,元数据包括时间戳和风险评分(可以通过预定义的规则进行计算,如风险评分=密度×0.5+雨量×0.3+风速×0.2,0.3、0.5和0.2表示权重,且权重之和应为1);
将热力图和多维向量保存到数据中心,并通过API接口输出,确保实时可用性和可视化支持(例如,在管理系统仪表盘显示热力图,供管理员监控)。
整体举例说明:
假设一个玩家报名“古镇谋杀谜案”(类型:推理型)。首先,系统通过APP菜单获取类型,并经API传输到中央云数据库。接着,根据类型生成评价方式:
映射评估维度,{推理能力:权重0.4,观察能力:0.3,社交能力:0.3},评价规则为推理能力=(归一化任务完成时长×0.4)+(归一化错误率×0.4)+(归一化求助频率×0.2);
测试调整方向,基础小游戏“寻找宝箱”的调整规则:动态障碍物间隔时间缩短30%,增加线索提示数量20%。调整基础小游戏生成更新版本(如增加逻辑谜题),推送至玩家APP。
玩家完成小游戏后,获取行为数据(如时长:2min,错误率:10%),处理后生成评价报告(如推理能力:80)。为玩家生成唯一编码“PID-56789”,通过MongoDB键值对关联形成玩家画像。
同时,感知环境状态:获取客流量(摄像头检测密度:30人/100㎡)、天气(API显示小雨),生成环境画像(热力图显示拥堵区红色,向量:[密度:30,雨量:2mm/h])。
动态决策是系统的“大脑”,基于博弈论的多智能体强化学习(MARL)模型。将系统视为棋手,引入“层次化目标”与“课程学习”的多智能体协作决策框架,景区为棋盘,玩家为棋子。将决策分为战略层和战术层,定义状态空间、动作空间、奖励函数,并根据当前状态生成任务元件组合,以降低计算复杂度、保障宏观叙事并实现精准微观匹配,每一步决策(生成一个任务)的目标是让整个“棋局”(所有玩家的整体体验)走向最优。
使用MARL模型(如RayRLlib或OpenAIGym)进行多智能体模拟的方法包括,MARL模型根据当前状态空间,从动作空间中选择一个能最大化总奖励的任务元件组合,生成一个个性化任务,分配给最合适的玩家,具体来说:
定义状态空间、动作空间和奖励函数,从动作空间中选择一个能最大化总奖励的任务元件组合,生成一个个性化任务,并分配给最合适的玩家;
状态空间使用多层结构,包括战略层和战术层,将庞大决策分解为战略(宏观)和战术(微观)层,避免“计算灾难”和剧情不连贯。其中,战略层的职责是从全局视角制定叙事目标和调度目标,战术层的职责是将高级指令分解为具体任务;
动作空间定义为从任务元件库中选择动作;
定义奖励函数的总奖励为体验奖励、效率奖励、剧情奖励和适应性奖励的加权总和(如,权重设置为体验40%、效率30%、剧情20%、适应性10%),其中,体验奖励为负的匹配度分数,用于量化任务与玩家能力的契合度,例如,匹配度分数=(任务难度-玩家能力差)^2的负值(其中,任务难度为预设值0-100,玩家能力差为绝对差值,负值鼓励最小化差异),玩家能力差指的是XX,效率奖励为负的拥堵惩罚,用于量化景区内的区域负载,例如,拥堵惩罚=-密度*10(密度为玩家/平方米,乘以10作为惩罚系数,确保高密度时总奖励显著降低),剧情奖励为正的逻辑一致性分数,用于量化任务序列的连贯性,例如,使用NLP(如BERT模型)检查逻辑一致性(BERT计算任务序列的语义相似度,得分大于0.8则+10分,否则-5分),适应性奖励为正的环境调整奖金,用于量化对变量的响应,这里的变量是指XX,例如,天气调整成功+5分(如,若任务成功从室外迁移到室内,则+5分;失败则0分);
其中,体验奖励的作用是为高能力玩家匹配高难度任务,为低能力玩家匹配低难度任务。效率奖励的作用是引导玩家远离拥堵区域,向空闲区域扩散。当某区域玩家密度过高,系统会降低分配该区域任务的奖励值。剧情奖励的作用是确保任务组合后符合剧情核心逻辑,避免出现矛盾。适应性奖励的作用是因天气变化而调整任务(如下雨时,将“室外阅读石碑”任务替换为“亭内与NPC对话获取信息”),则获得高奖励。
基于玩家画像为每个玩家维护一个初始难度系数,当战术层的智能体生成任务时,预设计剧情安全卫士机制,用于对战术层输出的任务进行规则校验;若校验通过,则下发给任务生成模块;否则,重新生成;
持续监控玩家任务完成情况,如果玩家成功,正向计数器加1,如果玩家失败,则负向计数器加1,根据计数器的数值调整其个人的难度系数,并在下次任务中根据难度系数选择元件;
任务完成情况是指任务执行结果,包括成功率、用时、求助频率和错误次数,例如,成功=完成率>80%且用时<预期时间,失败=求助>3次或超时;
根据难度系数选择元件的方法为:在战术层组合时,从元件库筛选难度匹配的元件(例如,如果难度系数>0.7,选择高难度挑战元件,如复杂谜题等;如果难度系数<0.4,选择低难度元件,如简单提示),同时使用过滤函数,即元件难度≤难度系数×1.2时,确保渐进调整。
其中,基于玩家画像为每个玩家维护一个初始难度系数的具体步骤为:从多模态环境感知模块获取玩家画像(如,推理能力为80),计算初始难度系数=(画像平均分/100)×最大难度阈值,例如,如果画像平均分70,则初始难度系数计算为0.7,存储在数据中心中作为玩家属性,初始时画像平均分通过加权平均公式维护,画像平均分=(推理力×0.4+观察力×0.3+...),并在游戏开始时锁定。
战略层的职责是从全局视角制定叙事目标和调度目标,具体来说包括:
战略层是一个高阶智能体,它不关心具体的任务细节,如“寻找石碑”或“对接联龙”等。它的使命是从全局视角出发,用于制定当前阶段(当前阶段是指剧本杀的剧情章节或时间段,例如,从“开场调查”到“高潮对抗”的分段,如总游戏时长60分钟,前20分为阶段1)的叙事目标和调度目标;叙事目标是指剧情推进的宏观方向,如“推动阵营冲突或揭示线索”,例如,确保“侦探阵营”在阶段2内收集3/5线索,调度目标是指资源分配的宏观策略,如“优化玩家分布以避免拥堵”,例如,分流高密度区域玩家到低密度区;制定的方法通过MARL的战略层模型运行Q-Learning,输入宏观状态后模拟博弈(Nash均衡),选择最大化奖励的指令(例如,如果剧情进度<50%,则优先叙事目标)。
定义输入(也就是状态空间)聚焦于宏观状态,包括整体剧情进度、热力图、天气状况和游戏剩余时间,定义输出(也就是动作空间)为高级指令,高级指令是指高层次的指导性命令,例如,推动剧情:在15分钟内,引导‘侦探’阵营的玩家发现‘凶手’留在西区的关键证据、平衡负载:将中心广场(拥堵度>85%)的玩家,分流至少30%到东侧园林(拥堵度<40%)、适应环境:因降雨开始,将所有涉及‘户外书写’的任务目标点迁移至最近的避雨点。自定义决策频率,这里的频率一般较低,例如每5-10分钟决策一次。
根据整体剧情进度、热力图、天气状况和游戏剩余时间输出高级指令的过程包括:
步骤A1:从多模态环境感知模块获取数据(如,剧情进度:40%、热力图:中心拥堵0.8、天气:雨量0.6、剩余时间:30min),形成状态向量;
步骤A2:MARL运行Q-Learning变体,模拟多轮博弈评估奖励(如,如果剩余时间<20min且拥堵高,优先调度目标);
步骤A3:选择最大奖励指令(如,如果天气雨量>0.5,生成“适应环境”指令);
步骤A4:存储决策依据。
战术层的职责是将高级指令分解为具体任务,包括:
接收来自战略层的高级指令,并将其分解翻译成具体的、可执行的任务元件,每个战术智能体负责一个玩家小组或一个区域;
分解、翻译是指将高级指令拆分为子目标并映射到元件,例如,将“推动剧情”分解为“线索搜索子任务”,翻译为{行动:搜索,地点:西区}。
定义输入为战略指令和微观状态,战略指令是高层次指导,例如,“引导侦探阵营发现证据”,微观状态包括每个玩家的任务进度和精确位置、更新后的玩家画像;定义输出为从任务元件库中为单个玩家组合出的个性化任务;
从任务元件库中为单个玩家组合出的个性化任务的方法包括:
步骤X1:查询任务元件库(MongoDB);
步骤X2:匹配玩家画像(如,高观察力的玩家选“搜索”任务元件);
步骤X3:应用难度系数过滤(如,系数0.7选中等难度);
步骤X4:优化奖励(如,最大化体验奖励);
步骤X5:生成组合(如,{行动:搜索,地点:假山,挑战:无})。
自定义决策频率且高于战略层的决策频率,便于实时地为需要新任务的玩家生成指令。
通过引入分层决策降低计算复杂度,将庞大的决策问题分解为两个更易管理的子问题,避免了维度灾难。同时保障宏观叙事,即战略层确保了剧情主线不会被海量的微观任务带偏,始终保持正确的推进方向。而且实现精准微观匹配,是的战术层可以更精细地利用玩家画像,实现极致的个性化任务分配。
任务元件是指原子级任务要素,例如,{行动:搜索}、{地点:古亭}、{挑战:谜题},可用于组合成完整任务。任务元件库是指预设计的原子级任务要素数据库,例如,使用MongoDB存储大于1000个元件(如{目标地点:古亭}、{行动:寻找}),支持查询和组合,便于战术层动态组装。
正向计数器和负向计数器的规则为,若玩家成功1次,则正向计数器加1,如果玩家连续成功,则正向计数器连续加1,直到玩家失败时,正向计数器计数停止,且数值清零,同时负向计数器加1,如果玩家连续失败,则负向计数器连续加1,直到玩家成功时,负向计数器计数停止,且数值清零。
剧情安全卫士机制是一个轻量级、基于规则的过滤器模块(使用脚本语言如Python实现),嵌入在战术层输出后,作为最终校验关卡,包括逻辑一致性、剧情锁和空间合理性检测;确保MARL生成的组合无漏洞。
逻辑一致性是指任务奖励或线索与玩家已有信息的无矛盾性,例如,检查任务中奖励的线索,是否与该玩家已掌握的线索重复或冲突,不能把密钥碎片B奖励给已经拥有它的玩家,可以使用数据库查询比较。
剧情锁是指任务依赖于剧情节点的解锁状态,例如,检查该任务是否依赖于一个尚未被解锁的剧情节点,如在国王被杀之前,任何玩家不能接到登基任务,可以通过全局剧情状态机验证剧情节点状态。
空间合理性检测是指任务的可执行性在物理空间和时间上的合理,例如,检查这个任务要求玩家在5分钟内从景区最北端移动到最南端的可能性,可以使用LBS距离计算和平均移动速度估算,如距离>500m且时间<5min则否决。
规则校验通过顺序执行if-then规则链,例如,先检测逻辑一致性,若通过,则检测剧情锁,若通过,则检测空间合理性,任何一个不通过则校验不通过,使用自动化脚本比较任务组合与预定义规则库(存储在JSON文件中),整个过程<1s,日志记录校验结果。
任务生成模块:接收动态决策模块的输出,通过组装和渲染形成最终任务,并下发给玩家终端,玩家接收任务并交互,使用计算机视觉(CV)和传感器融合自动化验证任务完成状态,反馈给多模态环境感知模块,形成循环。
计算机视觉(CV)和传感器融合中,CV使用YOLO模型识别上传照片(如,树叶形状匹配>90%通过);传感器融合结合LBS确认位置+CV验证物体。如果验证失败,提供提示或求助按钮,记录为反馈数据。
通过组装和渲染形成最终任务的方法包括:使用动态叙事生成技术,将任务要素填入模板,生成多模态输出。
动态叙事生成技术,将任务要素填入模板,是指使用GPT-like模型(如,fine-tunedChatGPT)填充模板,确保叙述个性化(如,高能力玩家任务添加时间限制)。模板示例:{角色},在{地点}{行动}{对象},以{挑战}方式获取{奖励}。
多模态输出包括语音使用TTS工具如GoogleText-to-Speech,定制音色(如,古风NPC用低沉男声);AR集成UnityARFoundation,在APP中叠加箭头/高亮(如,目标物体发光)。支持多语言输出,适应国际游客。
玩家终端APP使用ReactNative开发,支持推送通知和实时聊天(增强社交)。AR设备兼容手机/眼镜(如AppleVisionPro)。
实施例2
请参阅图2,本发明实施例还提供了一种电子设备,图2是根据一示例性实施例示出的电子设备20结构图,图中的内容不能认为是对本发明使用范围的任何限制。该电子设备20,具体可以包括:至少一个处理器21、至少一个存储器22、电源23、通信接口24、输入输出接口25和通信总线26。其中,存储器22用于存储计算机程序,计算机程序由处理器21加载并执行,以实现前述任一实施例公开的高可靠性存储芯片数据读写校验方法中的相关步骤。另外,本实施例中的电子设备20具体可以为电子计算机。
本实施例中,电源23用于为电子设备20上的各硬件设备提供工作电压;通信接口24能够为电子设备20创建与外界设备之间的数据传输通道,其所遵循的通信协议是能够适用于本发明技术方案的任意通信协议,在此不对其进行具体限定;输入输出接口25,用于获取外界输入数据或向外界输出数据,其具体的接口类型可以根据具体应用需要进行选取,在此不进行具体限定。
另外,存储器22作为资源存储的载体,可以是只读存储器、随机存储器、磁盘或者光盘等,其上所存储的资源可以包括操作系统221、计算机程序222等,存储方式可以是短暂存储或者永久存储。
其中,操作系统221用于管理与控制电子设备20上的各硬件设备以及计算机程序222,其可以是WindowsServer、Netware、Unix、Linux等。计算机程序222除了包括能够用于完成前述任一实施例公开的由电子设备20执行的高可靠性存储芯片数据读写校验方法的计算机程序之外,还可以进一步包括能够用于完成其他特定工作的计算机程序。
进一步的,本发明还提供了一种计算机可读存储介质,用于存储计算机程序;其中,计算机程序被处理器执行时实现前述公开的高可靠性存储芯片数据读写校验方法。关于该方法的具体步骤可以参考前述实施例中公开的相应内容,在此不再进行赘述。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术用户来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,包括:
多模态环境感知模块:获取剧本杀的类型,并根据类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像,并对当前环境状态进行感知,生成环境画像;
动态决策模块:根据玩家画像和环境画像为每个玩家分配初始任务,使用MARL模型进行多智能体模拟,通过战略层制定叙事与调度目标,战术层分解为具体任务,结合奖励函数与剧情安全卫士机制生成个性化任务,并动态调整玩家难度系数;
任务生成模块:接收动态决策模块的输出,通过组装和渲染形成最终任务,并下发给玩家终端,玩家接收任务并交互,自动化验证任务完成状态,反馈给多模态环境感知模块,形成循环。
2.根据权利要求1所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述根据类型生成评价方式,对玩家在该类型下的相关能力进行评估,生成玩家画像的方法包括:
评价方式包括映射评估维度和测试调整方向;映射评估维度包括每个类型下玩家的评价维度和每个维度对应的评价规则,测试调整方向包括每个类型下基础小游戏的调整维度和每个维度的调整规则;
预设计一个基础小游戏,根据测试调整方向对其进行调整,生成更新小游戏,并将其推送到移动端;
在玩家游戏过程中,获取行为数据,然后根据类型对应的映射评估维度对行为数据进行处理,获取评价报告;
为每个玩家生成唯一编码,将评价报告和编码关联形成玩家画像。
3.根据权利要求2所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述对当前环境状态进行感知,生成环境画像的方法包括:
获取景区的客流量、分布密度和天气状态,并将其标准化为数值向量;
使用GIS工具将密度映射到景区地图上,颜色渐变表示风险,形成热力图;
将密度向量和天气向量组合成多维向量;添加元数据到多维向量上,元数据包括时间戳和风险评分;
将热力图和多维向量保存到数据中心,并通过AP I接口输出。
4.根据权利要求3所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述使用MARL模型进行多智能体模拟的方法包括:
定义状态空间、动作空间和奖励函数,从动作空间中选择一个能最大化总奖励的任务元件组合,生成一个个性化任务,并分配给最合适的玩家;
状态空间使用多层结构,包括战略层和战术层,其中,战略层的职责是从全局视角制定叙事目标和调度目标,战术层的职责是将高级指令分解为具体任务;
动作空间定义为从任务元件库中选择动作;
定义奖励函数的总奖励为体验奖励、效率奖励、剧情奖励和适应性奖励的加权总和,其中,体验奖励为负的匹配度分数,用于量化任务与玩家能力的契合度,效率奖励为负的拥堵惩罚,用于量化景区内的区域负载,剧情奖励为正的逻辑一致性分数,用于量化任务序列的连贯性,适应性奖励为正的环境调整奖金,用于量化对变量的响应;
基于玩家画像为每个玩家维护一个初始难度系数,当战术层的智能体生成任务时,预设计剧情安全卫士机制,用于对战术层输出的任务进行规则校验;若校验通过,则下发给任务生成模块;否则,重新生成;
持续监控玩家任务完成情况,如果玩家成功,正向计数器加1,如果玩家失败,则负向计数器加1,根据计数器的数值调整其个人的难度系数,并在下次任务中根据难度系数选择元件。
5.根据权利要求4所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述战略层的职责是从全局视角制定叙事目标和调度目标,具体来说包括:
战略层用于制定当前阶段的叙事目标和调度目标;叙事目标是指剧情推进的宏观方向,调度目标是指资源分配的宏观策略;
定义输入包括整体剧情进度、热力图、天气状况和游戏剩余时间,定义输出为高级指令,高级指令是指高层次的指导性命令,自定义决策频率。
6.根据权利要求5所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述战术层的职责是将高级指令分解为具体任务,包括:
接收来自战略层的高级指令,并将其分解翻译成具体的、可执行的任务元件,每个战术智能体负责一个玩家小组或一个区域;
定义输入为战略指令和微观状态,战略指令是高层次指导,微观状态包括每个玩家的任务进度和精确位置、更新后的玩家画像;定义输出为从任务元件库中为单个玩家组合出的个性化任务;
自定义决策频率且高于战略层的决策频率。
7.根据权利要求6所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述任务元件库包括:
任务元件是指原子级任务要素,任务元件库是指预设计的原子级任务要素数据库。
8.根据权利要求7所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述正向计数器、负向计数器的规则包括,若玩家成功1次,则正向计数器加1,如果玩家连续成功,则正向计数器连续加1,直到玩家失败时,正向计数器计数停止,且数值清零,同时负向计数器加1,如果玩家连续失败,则负向计数器连续加1,直到玩家成功时,负向计数器计数停止,且数值清零。
9.根据权利要求8所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述剧情安全卫士机制嵌入在战术层输出后,作为最终校验关卡,包括逻辑一致性、剧情锁和空间合理性检测;
逻辑一致性是指任务奖励或线索与玩家已有信息的无矛盾性,剧情锁是指任务依赖于剧情节点的解锁状态,空间合理性检测是指任务的可执行性在物理空间和时间上的合理;
规则校验通过顺序执行if-then规则链。
10.根据权利要求9所述的AI智能体生成任务体系应用于景区剧本杀系统,其特征在于,所述通过组装和渲染形成最终任务的方法包括:使用动态叙事生成技术,将任务要素填入模板,生成多模态输出。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202511260998.3A CN120939579A (zh) | 2025-09-05 | 2025-09-05 | Ai智能体生成任务体系应用于景区剧本杀系统 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202511260998.3A CN120939579A (zh) | 2025-09-05 | 2025-09-05 | Ai智能体生成任务体系应用于景区剧本杀系统 |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| CN120939579A true CN120939579A (zh) | 2025-11-14 |
Family
ID=97603931
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202511260998.3A Pending CN120939579A (zh) | 2025-09-05 | 2025-09-05 | Ai智能体生成任务体系应用于景区剧本杀系统 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN120939579A (zh) |
-
2025
- 2025-09-05 CN CN202511260998.3A patent/CN120939579A/zh active Pending
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Barreteau et al. | Role-playing games for opening the black box of multi-agent systems: method and lessons of its application to Senegal River Valley irrigated systems | |
| Guss et al. | The minerl 2019 competition on sample efficient reinforcement learning using human priors | |
| CN112245934B (zh) | 虚拟场景应用中虚拟资源的数据分析方法、装置及设备 | |
| Bowser et al. | Prototyping in PLACE: a scalable approach to developing location-based apps and games | |
| Khan et al. | Optimal Skipping Rates: Training Agents with Fine‐Grained Control Using Deep Reinforcement Learning | |
| CN115175750A (zh) | 基于ai的游戏应用程序内容生成 | |
| CN116943220A (zh) | 一种游戏人工智能控制方法、装置、设备及存储介质 | |
| Jarušek et al. | Difficulty rating of sokoban puzzle | |
| Jaschek et al. | Mysterious murder-mcts-driven murder mystery generation | |
| Thawonmas et al. | Artificial general intelligence in games: Where play meets design and user experience | |
| Natkin et al. | A new methodology for spatiotemporal game design | |
| US20250352909A1 (en) | Artificial Intelligence Model Training Method and Apparatus, Device, Medium, and Program Product | |
| CN114565818B (zh) | 一种基于mcu芯片的魔方转动状态智能监测方法与系统 | |
| KR102706331B1 (ko) | 인공 지능 모델을 기반으로 게임 컨텐츠의 난이도를 관리하는 방법 및 장치 | |
| CN120939579A (zh) | Ai智能体生成任务体系应用于景区剧本杀系统 | |
| Apeldoorn et al. | Measuring strategic depth in games using hierarchical knowledge bases | |
| Wang et al. | Empowering llms in decision games through algorithmic data synthesis | |
| Ouessai et al. | Online Adversarial Planning in μRTS: A Survey | |
| Hildmann et al. | Raising awareness for environmental issues through mobile device based serious games | |
| CN112138396B (zh) | 一种面向无人系统模拟对抗的智能体训练方法及系统 | |
| Rubak | Imitation learning with the unity machine learning agents toolkit | |
| Grogan et al. | Operational and strategic decisions in engineering design games | |
| CN117883788B (zh) | 智能体训练方法、游戏对战方法、装置及电子设备 | |
| Gazis et al. | E-polis: A serious game for the gamification of sociological surveys | |
| CN116531764B (zh) | 游戏数据处理方法、装置、设备及计算机可读存储介质 |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination |