您的位置: 专家智库 > >

雷佳伟

作品数:2 被引量:2H指数:1
供职机构:北京工业大学计算机学院更多>>
发文基金:国家自然科学基金更多>>
相关领域:自动化与计算机技术更多>>

文献类型

  • 2篇中文期刊文章

领域

  • 2篇自动化与计算...

主题

  • 1篇爬虫
  • 1篇向量
  • 1篇漏洞
  • 1篇分布式
  • 1篇分布式文件
  • 1篇分布式文件系...
  • 1篇WEB应用
  • 1篇XSS
  • 1篇HADOOP
  • 1篇HADOOP...
  • 1篇程序漏洞

机构

  • 2篇北京工业大学

作者

  • 2篇王全民
  • 2篇雷佳伟
  • 2篇张程

传媒

  • 1篇计算机技术与...
  • 1篇计算机科学与...

年份

  • 2篇2016
2 条 记 录,以下是 1-2
排序方式:
基于爬虫技术的Web应用程序漏洞检测方法被引量:2
2016年
随着Web应用不断的发展,随之而产生的包括XSS在内的各种安全漏洞也越来越多。今天,XSS传统防御技术的缺陷已经越来越多地显现,例如防御种类单一、防御强度低、防御手段落后等,这就迫切需要不断提高和完善防御的方法和手段。针对此问题,提出了一种基于Scrapy的爬虫框架的Web应用程序漏洞检测方法。通过框架提供的便利条件对页面进行提取分析,根据不同的攻击方式生成特有的攻击向量,最后使页面注入点与攻击向量组合达到测试是否具有漏洞的目的。实验结果表明,这种漏洞检测方法在爬取页面以及漏洞检测的效率上都有了很大的提高。
王全民雷佳伟张程赵小桐
关键词:XSSWEB应用
一种Hadoop小文件存储优化方案
2016年
Hadoop分布式文件系统(HDFS)适合处理和存储大文件,在处理的文件体积较大时表现出色,但是在处理海量的小文件时效率和性能下降明显,过多的小文件将会导致整个集群的负载过高。为了提高HDFS处理小文件的性能,提出了双重合并算法-即基于文件之间的关联关系和基于数据块平衡的小文件合并算法,能够将小文件的文件体积大小进行均匀分布。通过该算法能够进一步提升小文件的合并效果,减少HDFS集群主节点内存消耗,降低负载,有效降低合并所需的数据块数量,最终能够提高HDFS处理海量小文件的性能。
王全民张程赵小桐雷佳伟
关键词:HADOOP分布式文件系统
共1页<1>
聚类工具0