您的位置: 专家智库 > >

白洋

作品数:4 被引量:0H指数:0
供职机构:郑州大学更多>>
相关领域:自动化与计算机技术理学语言文字更多>>

文献类型

  • 2篇学位论文
  • 1篇期刊文章
  • 1篇会议论文

领域

  • 3篇自动化与计算...
  • 2篇理学
  • 1篇语言文字

主题

  • 3篇纳什均衡
  • 2篇学习算法
  • 2篇预检测
  • 2篇竞争环境
  • 2篇多AGENT...
  • 2篇EXPLOI...
  • 1篇影评
  • 1篇人际
  • 1篇人际关系
  • 1篇人工智能
  • 1篇介入资源
  • 1篇APPRAI...
  • 1篇ENGLIS...
  • 1篇博弈
  • 1篇博弈论
  • 1篇AN

机构

  • 4篇郑州大学

作者

  • 4篇白洋
  • 2篇王黎明

传媒

  • 1篇计算机研究与...
  • 1篇第一届Age...

年份

  • 1篇2012
  • 1篇2007
  • 2篇2006
4 条 记 录,以下是 1-4
排序方式:
An Analysis of Interpersonal Meaning of Engagement Resources in English Movie Review: An Appraisal Appproach
评价理论是系统功能语言学对人际意义研究的扩展,是一种新词汇-语法框架,关注语篇中可以协商的各种态度;它由态度、介入和级差三个相互联系的子系统构成。虽然这一理论已被运用于诸如,硬新闻、社论、公共演讲、学术书评等语篇的研究中...
白洋
关键词:介入资源人际关系
文献传递
竞争环境中学习算法的预检测机制
2006年
多Agent系统中(MAS),所有的Agent都在不断学习,对于单个Agent来说就是一个学习移动目标的问题.PHC(policy hill climb)算法理性但自博弈时并不收敛.不过,PHC自博弈时的平均策略却能够快速且精确地收敛到纳什均衡(NE).在一些需要NE作为先验知识或需要收敛到NE的算法中,可以通过增加一个PHC自博弈过程来估计NE,然后再根据对手策略采取进一步措施.这样,不仅可以避免使用其他算法计算NE,而且能够使学习者至少获得均衡回报.Exploiter-PHC算法(Exploiter算法)能够击败大多数公平对手但需要NE作为先验知识,且自博弈时也不收敛.在其中加入预检测过程后的算法ExploiterWT(exploiter with testing)能够收敛且不需要先验知识.除此之外,该过程也可以加入其他一些算法之中.
王黎明白洋
关键词:多AGENT系统纳什均衡EXPLOITER
MAS环境下Agent学习的博弈策略研究
在MAS(Multi Agent System)环境中活动的Agent总是在一个庞大的、复杂的、开放的、动态的和不可预期的环境中操作。它在任意时刻的最优策略总是依赖于其他Agent所使用的策略集合,因而成为一个学习移动目...
白洋
关键词:博弈论纳什均衡人工智能
文献传递
竞争环境中学习算法的预检测机制
多Agent系统中(MAS),所有的Agent都在不断学习,对于单个Agent来说就是一个学习移动目标的问题.PHC(policyhillclimb)算法理性但自博弈时并不收敛.不过,PHC自博弈时的平均策略却能够快速且...
王黎明白洋
关键词:多AGENT系统纳什均衡EXPLOITER
文献传递
共1页<1>
聚类工具0