UnixBench的七个影响要素

本文涉及的产品
云服务器 ECS,每月免费额度200元 3个月
云服务器ECS,u1 2核4GB 1个月
简介: 前面有两篇分别介绍了UnixBench: UnixBench的实现介绍 UnixBench算分介绍 这次要介绍下不同场景下,为什么分值有差异,有哪些需要考虑: 影响因素 1. CPU PIN住与非PIN住 这个场景主要是与国内云厂商的对比,他们的vm到现在都是非PIN住,也就是说如果在跑多进程业务,他们可以拿到很高的分值,当然也有概率拿到很低的分值。

前面有两篇分别介绍了UnixBench:

  1. UnixBench的实现介绍
  2. UnixBench算分介绍

    这次要介绍下不同场景下,为什么分值有差异,有哪些需要考虑:

影响因素

1. CPU PIN住与非PIN住

这个场景主要是与国内云厂商的对比,他们的vm到现在都是非PIN住,也就是说如果在跑多进程业务,他们可以拿到很高的分值,当然也有概率拿到很低的分值。有时候客户会只比较单进程,但是如Shell Scripts (8 concurrent),其实还是存在并发的,非绝对意义的单进程,所以CPU核数很重要的。
在主频差不多的情况下,那只能拿ECS的入门级实例(也是非PIN住的)对比,那效果差不多。但是我们推荐的是企业级实例,为什么推荐企业级实例(CPU是PIN住的),参考文章:2018云服务器选型指南·计算篇。那如果推荐了企业级实例,UnixBench的分值可能存在差距,但是如果多开几台友商的vm,就有概率测到vm很低分值的(掉到了一个拥挤的物理机)。

2. 主频差异

任何涉及计算相关的,CPU主频都是非常重要的,甚至是决定性因素。主频越高性能越好。
这时候不同云厂商对比性能的时候,一定要分清是高主频还是中主频,不同厂商即使都是中主频,差别也有点大。所以一定要对齐主频差异,才能做正确的对比。那如果对不齐,就只能讲稳定性了。

3. UnixBench算法缺陷一:Pipe-based Context Switching

UnixBench的子算法:Pipe-based Context Switching在不同的云厂商,性能差距巨大,这个算法的本意就是查看父子进程切换的效率。不同云厂商透露的拓扑结构不一样:
_2018_12_04_3_27_29

友商的做法会导致父子进程在同一个CPU,那么进程的切换成本就很低,这项分值就很高,比在物理机的分值还要高,这是一个不合理的现象。本意是要测父子进程在不同的CPU的进程切换效率,那么怎么办呢:对此我们针对这个程序做了一个简单的优化,确保父子进程在不同的CPU执行。具体测试办法:用aliyun版unixbench。下载unixbench.sh,执行它,会解决下载和执行。

   wget https://raw.githubusercontent.com/aliyun/byte-unixbench/master/unixbench.sh
   sh unixbench.sh

这里有一篇深入解析的文章:燕青: Unixbench 测试套件缺陷深度分析

4. UnixBench算法缺陷二:Double-Precision Whetstone

浮点数运算实现介绍,详见UnixBench的实现介绍
前面说了,主频差异会导致性能有差异,主频越高性能越好,而这个浮点数运算则是恰恰相反,高主频性能越差。
原因是:这个算法的本意是计算在这10秒内,能完成的最多的运算量。浮点数运算主要包含了:加减四则运算,条件切换,三角函数,指数运算。算法认为在一定的运算时间呢,这些运算随着运算量的增大,所需要的时间是线性的,所以才能控制在10秒。算法设计当初,估计都没考虑到主频有天能到3.0+GHz,使得最后一项运算量变成这么大。而这时候随着运算量增加,耗时也呈现指数级增加。而高主频的vm恰恰是前面的运算耗时很少,在2秒内可以完成大量运算,经过估算,以至于最后一次指数运算所需时间恰恰不是线性的了。我把最后一段代码抽取出来:
代码如下:

#include <stdio.h>
#include <math.h>

int main(int argc, char *argv[])
{
    long ix, i, xtra = atol(argv[1]), n8 = 93*x100;
    double x = 0.75;
    double t1 = 0.50000025;
    for (ix=0; ix < xtra; ix++)
    {
        for(i=0; i < n8; i++)
        {
             x = sqrt(exp(log(x)/t1));
        }
    }
}   

在一台高主频的vm,做单线程运算的耗时统计如下:

| 运算量 | 耗时 |
| -- | -- |
| 1000 | 0.820 |
| 2000 | 1.509 |
| 3000 | 2.216 |
| 4000 | 2.909 |
| 5000 | 6.527 |

从上表可以看出,到超过4000的时候,其耗时已经非线性。那么这个算法是不公平的,高主频的VM运输量偏大,导致耗时增加,性能分下降。可以做一个简单修改,在第一个for循环里面,每次都做初始化x=0.75,那么可以保证其运输量是线性了。

其他影响因素:

  • 编译选项差异:默认是采用gcc编译,如果采用icc编译性能,可以显著提升。dry2stone整数运算,性能可以提升7.9%。
  • 内核参数调整:打开halt polling,可以让Pipe-based Context Switching性能提升一倍多,但是对应功耗也显著提升,默认云厂商好像都不打开该选项。
  • 进程干扰:unixbench都是些非常基础的进程的操作,所以尽可能地减少其他进程干扰,可以达到最好的性能。
目录
相关文章
|
5天前
|
数据可视化 数据挖掘 调度
【Python数据挖掘】优化电能能源策略:基于非侵入式负荷检测与分解的智能解决方案
【Python数据挖掘】优化电能能源策略:基于非侵入式负荷检测与分解的智能解决方案
39 0
浅析软件成本估算之NESMA方法的3种应用场景
NESMA为荷兰软件度量协会的简称(Netherland Software Measurement Association),NESMA功能点方法是五种ISO国际功能点标准之一,不但易学易用、快速、经济,而且容易开发和建立用户自己特有的估算模型。
2960 0
|
8月前
|
存储 传感器 Web App开发
TencentOS tiny危险气体探测仪产品级开发
TencentOS tiny危险气体探测仪产品级开发
89 0
|
11月前
|
算法 计算机视觉
图像生成过程中遭「截胡」:稳定扩散的失败案例受四大因素影响
图像生成过程中遭「截胡」:稳定扩散的失败案例受四大因素影响
EMQ
|
机器学习/深度学习 人工智能 运维
激活海量数据价值,实现生产过程优化
EMQ云边协同工业互联网解决方案,将人工智能与云计算技术接入到传统的工业生产中,帮助企业实现数据流、生产流与控制流的协同,降本增效。
EMQ
158 0
激活海量数据价值,实现生产过程优化
|
云安全 算法 安全
阿里云风险识别服务有哪些优势?
阿里云风险识别服务有哪些优势?
302 0
|
人工智能
RPA软件如何升级电商工作价值?深度分析
工作,通俗点说就是干活儿,一提到是工作,大部分人会说自己不过是一个打工的,领着普通的工资,过着普通的生活,不能很有钱但是至少相对稳定,唯一心理有点委屈的就是同为打工的,为啥有些人赚的钱更多,有些人则干得很累却赚得很少,有人会说,那是别人运气好,选对了行业,这样说也没错,那为什么选对了行业就赚更多的钱?那是因为,别人创造了更高的价值,怎么计算自己工作创造的价值?我这里跟大家介绍一种测算方法。
RPA软件如何升级电商工作价值?深度分析
软件项目成本估算之NESMA方法的3种应用场景
在五种国际标准中,只有NESMA方法定义了3种应用场景以支持不同粒度的估算,并且随着项目的进展和需求的完善,估算者可以不断修正之前的结果,进行持续的软件度量。因此如果使用行业标准进行早期估算(如编制预算、招投标),则应采用NESMA方法中的预估功能点或估算功能点方法。
1870 0
|
存储 关系型数据库 测试技术
基于PostGIS叠加分析优化--气象预警分析案例实践
一 案例简介 ??电力行业在未来和气象领域的结合会越来越普及,衍生的各种复杂GIS分析也是很多的,如暴雨(气象)覆盖范围+地形分布区域(地质领域)+地貌分布区(植被覆盖分布)做叠加分析,如果地物是小土山,且植被覆盖率非常低,这里就特别容易发生滑坡,泥石流,而国网比如在复杂地形区新建一个电站,可以使用类似的分析,规避地质灾害,气象灾害频发区域,这些灾害之间好像还有相互关联性(GIS应该是做这种高级分析的,寻常定位高亮这种,怎么能算成GIS啊?)。
2861 0
|
监控 开发工具
如何衡量系统内存健康程度: memdelay简介
# 简介 最近在upstream上, Johannes Weiner发了一个memdelay的patch, 主要是衡量系统内存的健康程度, 在对它进行分析和优化之后, 做了一个简单的总结 memdelay是衡量一个系统(memcg)中内存的健康程度的一个监控系统, 可以用来评价一个memcg的limit是否设置得合理 # 主要功能 - 监控每个task因为内存短缺导致的延迟 -
1947 0


http://www.vxiaotou.com