2025年4月16日
星期三
|
欢迎来到青海省图书馆•公共文化服务平台
登录
|
注册
|
进入后台
[
APP下载]
[
APP下载]
扫一扫,既下载
全民阅读
职业技能
专家智库
参考咨询
您的位置:
专家智库
>
>
穆翔
作品数:
2
被引量:1
H指数:1
供职机构:
苏州大学
更多>>
发文基金:
江苏省高校自然科学研究项目
江苏省自然科学基金
国家自然科学基金
更多>>
相关领域:
自动化与计算机技术
更多>>
合作作者
傅启明
苏州大学计算机科学与技术学院
刘全
苏州大学计算机科学与技术学院
孙洪坤
苏州大学计算机科学与技术学院
周鑫
苏州大学计算机科学与技术学院
作品列表
供职机构
相关作者
所获基金
研究领域
题名
作者
机构
关键词
文摘
任意字段
作者
题名
机构
关键词
文摘
任意字段
在结果中检索
文献类型
1篇
期刊文章
1篇
学位论文
领域
2篇
自动化与计算...
主题
1篇
迭代
1篇
迭代算法
1篇
梯度下降
1篇
模糊推理
1篇
函数
1篇
Q值
机构
2篇
苏州大学
1篇
吉林大学
作者
2篇
穆翔
1篇
周鑫
1篇
孙洪坤
1篇
刘全
1篇
傅启明
传媒
1篇
通信学报
年份
1篇
2014
1篇
2013
共
2
条 记 录,以下是 1-2
全选
清除
导出
排序方式:
相关度排序
被引量排序
时效排序
基于两层模糊划分的时间差分算法
被引量:1
2013年
针对传统的基于查询表或函数逼近的Q值迭代算法在处理连续空间问题时收敛速度慢、且不易求解连续行为策略的问题,提出了一种基于两层模糊划分的在策略时间差分算法——DFP-OPTD,并从理论上分析其收敛性。算法中第一层模糊划分作用于状态空间,第二层模糊划分作用于动作空间,并结合两层模糊划分计算出Q值函数。根据所得的Q值函数,使用梯度下降方法更新模糊规则中的后件参数。将DFP-OPTD应用于经典强化学习问题中,实验结果表明,该算法有较好的收敛性能,且可以求解连续行为策略。
穆翔
刘全
傅启明
孙洪坤
周鑫
关键词:
梯度下降
基于模糊近似的强化学习方法研究
强化学习是一种用于求解可以建模为马尔科夫决策过程问题的机器学习方法,其通过Agent与环境交互以获得最大累计奖赏的方式进行学习。当前强化学习面临的主要挑战和机遇是如何求解大规模状态或动作空间的问题。本文将模糊推理作为近似...
穆翔
关键词:
模糊推理
迭代算法
文献传递
全选
清除
导出
共1页
<
1
>
聚类工具
0
执行
隐藏
清空
用户登录
用户反馈
标题:
*标题长度不超过50
邮箱:
*
反馈意见:
反馈意见字数长度不超过255
验证码:
看不清楚?点击换一张