干什么特种部队HALO高跳低开陶冶要吹风洞

日期:2019-09-25编辑作者:战役战争

一九六八年,十十月二十五日 上午2点 老挝上空1七千英尺 C-130货舱的跳板逐步放下。在老挝上空橄榄绿的晚间风声伴着内燃机的轰鸣声欢送SOG“南达科他组”调查队的

资料图:三人相当模拟自由落体飞行。如今一则消息引起站长的关心《中国极度兵弃降落伞跨入风洞时代》,听大人讲,那座风洞是小编军首座用于伞降磨炼的风洞,试飞成功注脚着笔者军伞降练习条

 

1968年,十6月29日清晨2点老挝上空1七千英尺C-130货舱的跳板慢慢放下。在老挝上空乌紫的晚间风声伴着斯特林发动机的轰鸣声欢送SOG“新罕布什尔组”侦查队的6名成员。他们三人正好形成月余的教练,以往到了真正时候了。当中三人分别是:队长,也叫1-O是SSG克里夫•Newman;SFCSami•赫南德兹;以及SFC梅文•Hill。别的几个人是两名塔塔尔族人和一名南越军军士。当他们站在舱门口的时候,他们看见一望无际的苍穹和深湖蓝褐的云层,他们都晓得这将是一次雨中伞降。可是那已经不重要了,时间到了。“出发!”,指挥官下令。一声令下,他们跳出舱门,消失在夜空中。四个比利时人鲜明比异国同伙们进一步精通的发掘到她们正在创设历史。那是世界上从来的第三遍实战HALO跳伞。H.A.L.O.(High Altitude Low Opening,高跳低开)首见于一九五六年,是一种将新鲜部队行动小组隐快速投放步向战区的不说方式。目的是在超越三千0英尺的天幕中跳出机舱,自由落体至离地高度1000至三千英尺开伞,滑翔至降落区。比很多个人觉着多年以来越南战争已经提供了足足多实行这种办法的机会,真实处境是结束前些天战斗步向尾声了,肩上带星的丰姿想起来还恐怕有一种保障的渗漏格局得以尝尝。职责计划是将“密西西比组”调查队在老挝上空空中投送,空中投送点就在仇敌头顶,落地后摸进丛林找到北越军常用的电话线并张开窃听。假若成功会得到十分的多有价值的消息。假如退步,这一个小队也不会有人知道,足以验证HALO的实用性。无论如何,时间都很殷切。因为不知什么原因北越方面竟然查出了走路地方,日期,以致走路人士姓名。在反复排查确认保证空头支票情报败露之后,他们到底到手了走路许可。可是今后对于那些以每小时一百海里的进程一面淋雨一面往下掉的人来说,接下去的职务才是最器重的——安全落地,然后在那可怜的气象里跟队友会师。1500英尺中度开伞,他们在轰鸣的强风中穿行滑翔直到他们到达他们认为的降落点,那时的雨也慢慢变小了。有人成功了平整降落,落地时候还翻滚了瞬间,有人则不幸的悬挂了树上。解开鞍座束具,他们当即运营归航装置寻找互相,然而她们相互实在离得太远了。有人居然相隔数英里之遥。最后他们分了四拨各自进行。赫南德斯和Hill落了单,他们垄断(monopoly)独自行走。Newman找到了八个德昂族,南越军士也找到一个。雨一向下,他们马不解鞍赶往丛林里那传说中的话线。无人受到损伤,然则她们离开了预订降落点足足6公里。太阳集团游戏官方网址 1上海体育场面为:1973年八月间,SOG小组筹划实战HALO跳天亮后,三个前敌空中交通管理步向该区域并树立了调换。阴暗的苍穹仍旧下着瓢泼中雨,丛林里也是大风吹。固然如此,队员们如故坚定不移跋涉,翻越三个又三个隐蔽茂密的山丘,决心要找到那根电话线。遽然,赫南德斯听见了谈话声,随后又是发现机引擎的响声。猛然枪声大作。那是北越军开掘入侵者后的宽泛管理。于是她蹲下,打算开火。未有人好像。他看见多少个北越士兵跑过她的岗位,奔向更远处。他那才意识到他们不是在追杀他,这么些人是在打猎。剩下的三拨人也经历了看似的光景。他们都听见了对手的音响恐怕看到了对手军队,不过都没被发觉。到近期结束,敌人只是不好的气候。厚厚的云层断绝了她们从空中急切撤离的也许。搜寻的进度越长,队员们的人身也更冷,逸事中的电电话线也更加的遥遥无期。又过了十一日,一穷二白。更加多的巡逻队从他们前面渡过,全然不知“北卡罗来纳组”的留存。他们必要更加的多的流年。太阳集团游戏官方网址 2一名SOG队员于行动中拍片的老挝境内的北越军照片。由图中可见双方距离是怎么临近。(战甲备注:斯洛伐克(Slovak)语原版的书文中所说为北越军照片,但实应该为SOG队员照片)第八日,天气终于放晴,四拨人周围都冒出了枪声回响。那是北越军在进行射击演练,仅此而已,他们还是对考查队的留存毫不知情。不管实况怎么着,由于顾虑调查队的好运也许到此甘休,SOG根据地断定继续停留在该区域危害过大,下令立刻离开。他们联系到了调查队的四拨人,然后指导他们前去多个不等的降落点,然后十分的快从泰国飞来的HH-3“欢跃的绿圣人”直接升学机从树梢中度类似,并发轫用穿林机接地。穿林机是一种用来穿透厚重树叶层接地清场的特大型器具。小队成员在被接走的当口,F-4鬼怪和A-1天袭者(着名的马桶应战轰炸机,实在是不有自主见三次嘲谑贰遍。译注)在小队外围转圈,投掷炸弹以及选取航空机关炮隔开追击。当全数人都上了飞机之后,直接升学机开足马力逃离了那片区域。他们的那趟游历把她们带到了泰国那空拍侬省的边境营地,当时该集散地是美利坚合众国特有部队的装置。有气无力的调查队走下飞机,收起了配备,然后去做职务陈诉。面临质询,没人答得上去为啥那条电话线从未被找到。上头有确切的音信证据,而且对此很自然。然后职务指挥突然领悟了那又是三次假音讯,有人通过某种路子耍了他们。东东亚最神秘的行动部队里面居然埋了一只能够接触最高机密的鼹鼠。指挥们精晓,直到挖出鼹鼠从前,任何职务都有非常大大概遭破坏形成惨剧。只是近年来,寻找那只鼹鼠远在那个营地能力之上,还得要从西贡的分局初阶挖起。对于“亚利桑那组”来说,那就是还是不是她们的政工了。他们已经办好了谐和的行事,不是和谐该操心的作业自会有人去顾忌。他们离开了简报室,洗澡,喝味美思酒然后去睡大觉。即便她们未能找到那根电话线,可是她们并不以为意。他们在上千人的武装部队眼皮底下遛弯,并且丝毫都没有被人发觉。那足以验证HALO切实有效,而他们正是第一堆证据。他们的大力为以后的粉尘铺好了路,一条通往仇人后院的幽静小路。W资料来源: Perry别的媒体转发请先与本站联系

太阳集团游戏官方网址 3材质图:两人分外模拟自由落体飞行。

史上最详细的XGBoost实战

最近一则音信引起站长的青眼《中夏族民共和国诡异兵弃降落伞跨入风洞时期》,听别人讲,那座风洞是笔者军首座用于伞降演练的风洞,试飞成功声明着小编军伞降锻炼条件迈上了新台阶。

0. 条件介绍

  • Python 版 本: 3.6.2
  • 操作系统  : Windows
  • 购并开拓条件: PyCharm

太阳集团游戏官方网址 4特别部队在伞降进度中保险姿态

1. 安装Python环境

  • 安装Python

    首先,大家供给安装Python情状。本身接纳的是陆十二个人版本的Python 3.6.2。去Python官方网址挑选相应的版本并下载。如下如所示: 

    太阳集团游戏官方网址 5

接下来安装,并最终选择将Python加入环境变量中。

 
  • 安装重视包 
    去网址:中去下载你所急需的如下Python安装包:
 numpy-1.13.1+mkl-cp36-cp36m-win_amd64.whl
 scipy-0.19.1-cp36-cp36m-win_amd64.whl
 xgboost-0.6-cp36-cp36m-win_amd64.whl
  • 1
  • 2
  • 3

借使上述五个包所在的目录为D:Application,则运维Windows 命令行运营程序cmd,并将当前目录转到这五个文件所在的目录下。并相继实践如下操作安装那七个包:

>> pip install numpy-1.13.1+mkl-cp36-cp36m-win_amd64.whl
>> pip install scipy-0.19.1-cp36-cp36m-win_amd64.whl
>> pip install xgboost-0.6-cp36-cp36m-win_amd64.whl
  • 1
  • 2
  • 3
  • 安装Scikit-learn

    明确性,scikit-learn是Python机器学习最著名的开源库之一。因此,我们必要设置此库。实施如下命令安装scikit-learn机器学习库:

>> pip install -U scikit-learn
  • 1
  • 测量试验安装是或不是成功
>>> from sklearn import svm
>>> X = [[0, 0], [1, 1]]
>>> y = [0, 1]
>>> clf = svm.SVC()
>>> clf.fit(X, y)  
>>> clf.predict([[2., 2.]])
array([1])
>>> import xgboost as xgb
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8

在意:假如如上所述精确输出,则意味着安装到位。不然就必要检讨装置步骤是不是出错,大概系统是不是贫乏须要的Windows依赖库。常用的貌似意况见面世枯窘VC++运转库,在Windows 7、8、10等版本中装置Visual C++ 贰零壹伍大致就能够解决难题。

  • 安装PyCharm

    对于PyChram的下载,请点击PyCharm官网去下载,当然windows下软件的安装不用解释,傻瓜式的点击 下一步 就行了。

 

太阳集团游戏官方网址 6

 

注意:PyCharm软件是基于Java开拓的,所以安装该合併开荒碰着前请先安装JDK,提出安装JDK1.8。

透过上述手续,基本上软件条件的难题总体缓慢解决了,接下去正是其实的XGBoost库实战了……

专门的学业一些的军迷都晓得,特种部队在高跳低开进程中,要一直维系四肢舒展的架势,磨炼在空间保持这么些姿势最佳的主意就是在风洞中,被风吹的漂流起来锻炼。

2. XGBoost的优点

那就是说为什么要在上空保持这些姿势呢?有未有别的艺术呢?

2.1 正则化

  XGBoost在代价函数里参加了正则项,用于调控模型的复杂度。正则项里包含了树的卡片节点个数、每一种叶子节点上输出的score的L2模的平方和。从Bias-variance tradeoff角度来说,正则项减少了模型的variance,使学习出来的模型特别简便易行,防止过拟合,那也是xgboost优于古板GBDT的一个特征。

太阳集团游戏官方网址 7

2.2 并行管理

  XGBoost工具扶助相互。Boosting不是一种串行的构造吧?怎么并行的?注意XGBoost的相互不是tree粒度的互相,XGBoost也是三回迭代完工夫扩充下三回迭代的(第t次迭代的代价函数里带有了前头t-1次迭代的预测值)。XGBoost的互相是在特色粒度上的。

  大家通晓,决策树的学习最耗费时间的一个步骤正是对特色的值进行排序(因为要鲜明最佳分割点),XGBoost在磨练从前,预先对数码举办了排序,然后保留为block结构,后边的迭代中另行地利用这些布局,大大减小总计量。那几个block结构也使得相互成为了说不定,在开展节点的分歧时,必要总计每一种特征的增益,最后选增益最大的不得了特征去做区别,那么各种特征的增益计算就足以开四线程举办。

HALO高跳低开,是武装自由伞降中的一种,用于从高空渗透敌后。特种队员一般从三公里以上高空从飞机跳下,向来自由降落到1300米左右才开伞。

2.3 灵活性

  XGBoost支持客商自定义指标函数和评估函数,只要目的函数二阶可导就行。

太阳集团游戏官方网址 8

2.4 缺点和失误值管理

  对于特征的值有缺点和失误的样本,xgboost能够自动学习出它的差距方向

唯独大家知晓物体下落是有重力加速度的,倘使不思虑空气阻力,那2公里的自由落体到开伞时就高达了类似200米/秒的进程,不要讲人受不了,伞都能会拉坏了。

2.5 剪枝

  XGBoost 先从顶到底建构具有能够建设构造的子树,再从底到顶反向举办剪枝。比起GBM,这样不易于陷于局地最优解。

太阳集团游戏官方网址 9图表检索结果

2.6 内置交叉验证

  XGBoost允许在每一轮boosting迭代中利用交叉验证。因而,能够一本万利地赢得最优boosting迭代次数。而GBM使用网格搜索,只好检查评定有限个值。

然而,空气是有阻力的,只要合理施用阻力,到达一定速度后,加快度和阻力实现平衡,下跌速度就能男耕女织在二个数值,大家管那一个数值叫临界值。(为啥要加快度到早晚速度后才会抵消?速度越大障碍越大呀!快跑呢少年,你的物理老师从棺材里爬出来了。)

3. XGBoost详解

太阳集团游戏官方网址 10

3.1 数据格式

XGBoost能够加载两种多少格式的磨炼多少:  

  1. libsvm 格式的文件数据;

  2. Numpy 的二维数组;

  3. XGBoost 的二进制的缓存文件。加载的数目存款和储蓄在指标 DMatrix 中。

下边一一列举:

  • 加载libsvm格式的多寡
>>> dtrain1 = xgb.DMatrix('train.svm.txt')
  • 1
  • 加载二进制的缓存文件
>>> dtrain2 = xgb.DMatrix('train.svm.buffer')
  • 1
  • 加载numpy的数组
>>> data = np.random.rand(5,10) # 5 entities, each contains 10 features
>>> label = np.random.randint(2, size=5) # binary target
>>> dtrain = xgb.DMatrix( data, label=label)
  • 1
  • 2
  • 3
  • 将scipy.sparse格式的数目转载为 DMatrix 格式
>>> csr = scipy.sparse.csr_matrix( (dat, (row,col)) )
>>> dtrain = xgb.DMatrix( csr )
  • 1
  • 2
  • 将 DMatrix 格式的多都督存成XGBoost的二进制格式,在后一次加载时方可提升加载速度,使用格局如下
>>> dtrain = xgb.DMatrix('train.svm.txt')
>>> dtrain.save_binary("train.buffer")
  • 1
  • 2
  • 能够用如下情势管理 DMatrix中的缺点和失误值:
>>> dtrain = xgb.DMatrix( data, label=label, missing = -999.0)
  • 1
  • 当须要给样本设置权重时,能够用如下方式
>>> w = np.random.rand(5,1)
>>> dtrain = xgb.DMatrix( data, label=label, missing = -999.0, weight=w)
  • 1
  • 2

为了增大阻力,将在扩展迎风面,将要舒展肉体,展开四肢。如若您非要特性一下,像上海体育场地中那样,只会越落越快,开伞的冲力都能把您拖成两半。

3.2 参数设置

XGBoost使用key-value字典的格局存款和储蓄参数:

params = {
    'booster': 'gbtree',
    'objective': 'multi:softmax',  # 多分类的问题
    'num_class': 10,               # 类别数,与 multisoftmax 并用
    'gamma': 0.1,                  # 用于控制是否后剪枝的参数,越大越保守,一般0.1、0.2这样子。
    'max_depth': 12,               # 构建树的深度,越大越容易过拟合
    'lambda': 2,                   # 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合。
    'subsample': 0.7,              # 随机采样训练样本
    'colsample_bytree': 0.7,       # 生成树时进行的列采样
    'min_child_weight': 3,
    'silent': 1,                   # 设置成1则没有运行信息输出,最好是设置为0.
    'eta': 0.007,                  # 如同学习率
    'seed': 1000,
    'nthread': 4,                  # cpu 线程数
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15

在半空中怎么着平稳协调的肉体,就要求相关的磨炼了,训练格局有风洞,水池,吊索等办法。

3.3 锻炼模型

有了参数列表和数目就能够练习模型了

num_round = 10
bst = xgb.train( plst, dtrain, num_round, evallist )
  • 1
  • 2

太阳集团游戏官方网址 11

3.4 模型预测

# X_test类型可以是二维List,也可以是numpy的数组
dtest = DMatrix(X_test)
ans = model.predict(dtest)
  • 1
  • 2
  • 3

没有错的调整方法,能够把临界值降到50M/s左右,人体能够承受。当然军事MFF跳伞要带走过多配备,除了增大迎风面,还会有正是开伞并非平素一下全开。或许是先开减速稳固伞,可能是主伞不是三回展开,而是分两步有个延迟来减速。

3.5 保存模型

  • 在练习达成之后方可将模型保存下来,也足以查阅模型内部的社团
    bst.save_model('test.model')
  • 1
  • 导出模型和特征映射(Map)

    您能够导出模型到txt文件并浏览模型的意义:

# dump model
bst.dump_model('dump.raw.txt')
# dump model with feature map
bst.dump_model('dump.raw.txt','featmap.txt')
  • 1
  • 2
  • 3
  • 4

太阳集团游戏官方网址 12

3.6 加载模型

由此如下形式得以加载模型:

bst = xgb.Booster({'nthread':4}) # init model
bst.load_model("model.bin")      # load data
  • 1
  • 2

风洞虽好,但造价高昂,比较多国家建不起。那么为啥中国和美利哥那样的泱泱大国依旧要建设伞降专项使用风洞?有的国家乃至搜索枯肠去别的国家吹风洞练习特战队员?

4. XGBoost参数详解

  在运营XGboost此前,必需安装三种等级次序成熟:general parameters,booster parameters和task parameters:

  • General parameters 
    太阳集团游戏官方网址,该参数参数调节在进步(boosting)进程中央银行使哪个种类booster,常用的booster有树模型(tree)和线性模型(linear model)。

  • Booster parameters 
    那有赖于使用哪个种类booster。

  • Task parameters 
    垄断(monopoly)学习的意况,比如在回归难点中会使用差异的参数调控排序。

事实上后边提到的水池和吊索陶冶,也能满意基本教练须要,然后而风洞磨练有本身非常优势。

4.1 General Parameters

  • booster [default=gbtree]

    有两中模型能够选拔gbtree和gblinear。gbtree使用基于树的模子实行升高总计,gblinear使用线性模型举办升级计算。缺省值为gbtree

  • silent [default=0]

    取0时表示打字与印刷出运维时信息,取1时意味着以沉默格局运行,不打印运维时信息。缺省值为0

  • nthread

    XGBoost运维时的线程数。缺省值是时下系统能够获得的最大线程数

  • num_pbuffer

    估摸缓冲区大大小小,经常设置为教练实例的数额。缓冲用于保存最终一步升高的前瞻结果,不须要人工设置。

  • num_feature

    Boosting进程中用到的性情维数,设置为特征个数。XGBoost会自动安装,无需人工设置。

首先得以给没丰盛天赋的人机遇,打败心境障碍,在水里漂浮和在半空飘荡的痛感是不一样的。

4.2 Parameters for Tree Booster

  • eta [default=0.3] 
    为了防止万一过拟合,更新进程中用到的减少步长。在每一回升高计算之后,算法会直接得到新特点的权重。 eta通过削减特征的权重使晋级计算进度更为保守。缺省值为0.3 
    取值范围为:[0,1]

  • gamma [default=0] 
    minimum loss reduction required to make a further partition on a leaf node of the tree. the larger, the more conservative the algorithm will be. 
    取值范围为:[0,∞]

  • max_depth [default=6] 
    数的最大深度。缺省值为6 
    取值范围为:[1,∞]

  • min_child_weight [default=1] 
    儿女节点中型Mini小的的样本权重和。要是一个卡片节点的样本权重和小于min_child_weight则拆分过程截止。在后天回归模型中,这一个参数是指组建各个模型所须要的矮小样本数。该成熟越大算法越conservative 
    取值范围为:[0,∞]

  • max_delta_step [default=0] 
    大家允许每个树的权重被测度的值。要是它的值被安装为0,意味着未有约束;如若它棉被服装置为三个正值,它亦可使得立异的步骤越发入保证守。通常那个参数是未曾要求的,可是如果在逻辑回归中类极度不平衡那时候他有不小希望会起到帮助意义。把它界定设置为1-10里边可能能决定更新。 
    取值范围为:[0,∞]

  • subsample [default=1] 
    用来练习模型的子样本占全部样本集结的百分比。假如设置为0.5则代表XGBoost将随便的从整个样本集结中随机的抽出出八分之四的子样本构建树模型,那能够制止过拟合。 
    取值范围为:(0,1]

  • colsample_bytree [default=1] 
    在建构树时对特色采集样品的比例。缺省值为1 
    取值范围为:(0,1]

稍许根本作育对象,才干或然胆量有题目,没风洞只可以四个名师扶着平稳姿势,而有风洞队员就可以协调反复练习找以为经验。

4.3 Parameter for Linear Booster

  • lambda [default=0] 
    L2 正则的惩治周详

  • alpha [default=0] 
    L1 正则的惩处周到

  • lambda_bias 
    在偏置上的L2正则。缺省值为0(在L1上尚未偏置项的正则,因为L1时偏置不重要)

再不怕效用高,何况能够屡次演习六个人摆造型,只要够大,编队都得以。

4.4 Task Parameters

  • objective [ default=reg:linear ] 
    概念学习职责及相应的读书指标,可选的靶子函数如下:

    • “reg:linear” —— 线性回归。
    • “reg:logistic”—— 逻辑回归。
    • “binary:logistic”—— 二分拣的逻辑回归难题,输出为可能率。
    • “binary:logitraw”—— 二分类的逻辑回归难点,输出的结果为wTx。
    • “count:poisson”—— 计数难点的poisson回归,输出结果为poisson遍布。在poisson回归中,max_delta_step的缺省值为0.7。(used to safeguard optimization)
    • “multi:softmax” –让XGBoost接纳softmax指标函数管理多分类难题,同一时候供给安装参数num_class(种类个数)
    • “multi:softprob” –和softmax同样,不过出口的是ndata * nclass的向量,能够将该向量reshape成ndata行nclass列的矩阵。没行数据表示样本所属于各类门类的票房价值。
    • “rank:pairwise” –set XGBoost to do ranking task by minimizing the pairwise loss
  • base_score [ default=0.5 ]

    • 负有实例的初阶化预测分数,全局偏置;
    • 为了足够的迭代次数,改变这几个值将不会有太大的震慑。
  • eval_metric [ default according to objective ]

    • 校验数据所须求的辩论目的,分歧的对象函数将会有缺省的评说目的(rmse for regression, and error for classification, mean average precision for ranking)-

    • 客户能够增添七种讲评指标,对于Python客户要以list传递参数对给程序,并不是map参数list参数不会覆盖’eval_metric’

    • 可供的选项如下:

      • “rmse”: root mean square error
      • “logloss”: negative log-likelihood
      • “error”: Binary classification error rate. It is calculated as #(wrong cases)/#(all cases). For the predictions, the evaluation will regard the instances with prediction value larger than 0.5 as positive instances, and the others as negative instances.
      • “merror”: Multiclass classification error rate. It is calculated as #(wrongcases)#(allcases).
      • “mlogloss”: Multiclass logloss
      • “auc”: Area under the curve for ranking evaluation.
      • “ndcg”:Normalized Discounted Cumulative Gain
      • “map”:Mean average precision
      • “ndcg@n”,”map@n”: n can be assigned as an integer to cut off the top positions in the lists for evaluation.
      • “ndcg-“,”map-“,”ndcg@n-“,”map@n-“: In XGBoost, NDCG and MAP will evaluate the score of a list without any positive samples as 1. By adding “-” in the evaluation metric XGBoost will evaluate these score as 0 to be consistent under some conditions. training repeatively
  • seed [ default=0 ]

    • 随机数的种子。缺省值为0

5. XGBoost实战

  XGBoost有两大类接口:XGBoost原生接口 和 scikit-learn接口 ,并且XGBoost可以达成 分类 和 回归 二种职责。因而,本章节分八个小块来介绍!

5.1 基于XGBoost原生接口的分类

from sklearn.datasets import load_iris
import xgboost as xgb
from xgboost import plot_importance
from matplotlib import pyplot as plt
from sklearn.model_selection import train_test_split

# read in the iris data
iris = load_iris()

X = iris.data
y = iris.target

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=1234565)

params = {
    'booster': 'gbtree',
    'objective': 'multi:softmax',
    'num_class': 3,
    'gamma': 0.1,
    'max_depth': 6,
    'lambda': 2,
    'subsample': 0.7,
    'colsample_bytree': 0.7,
    'min_child_weight': 3,
    'silent': 1,
    'eta': 0.1,
    'seed': 1000,
    'nthread': 4,
}

plst = params.items()


dtrain = xgb.DMatrix(X_train, y_train)
num_rounds = 500
model = xgb.train(plst, dtrain, num_rounds)

# 对测试集进行预测
dtest = xgb.DMatrix(X_test)
ans = model.predict(dtest)

# 计算准确率
cnt1 = 0
cnt2 = 0
for i in range(len(y_test)):
    if ans[i] == y_test[i]:
        cnt1 += 1
    else:
        cnt2 += 1

print("Accuracy: %.2f %% " % (100 * cnt1 / (cnt1 + cnt2)))

# 显示重要特征
plot_importance(model)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56

输出预测正确率以及特色重要性:

Accuracy: 96.67 % 
  • 1

 

太阳集团游戏官方网址 13

 

5.2 基于XGBoost原生接口的回归

import xgboost as xgb
from xgboost import plot_importance
from matplotlib import pyplot as plt
from sklearn.model_selection import train_test_split

# 读取文件原始数据
data = []
labels = []
labels2 = []
with open("lppz5.csv", encoding='UTF-8') as fileObject:
    for line in fileObject:
        line_split = line.split(',')
        data.append(line_split[10:])
        labels.append(line_split[8])

X = []
for row in data:
    row = [float(x) for x in row]
    X.append(row)

y = [float(x) for x in labels]

# XGBoost训练过程
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

params = {
    'booster': 'gbtree',
    'objective': 'reg:gamma',
    'gamma': 0.1,
    'max_depth': 5,
    'lambda': 3,
    'subsample': 0.7,
    'colsample_bytree': 0.7,
    'min_child_weight': 3,
    'silent': 1,
    'eta': 0.1,
    'seed': 1000,
    'nthread': 4,
}

dtrain = xgb.DMatrix(X_train, y_train)
num_rounds = 300
plst = params.items()
model = xgb.train(plst, dtrain, num_rounds)

# 对测试集进行预测
dtest = xgb.DMatrix(X_test)
ans = model.predict(dtest)

# 显示重要特征
plot_importance(model)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52

至关重大特征(值越大,表达该特征越首要)展现结果:

 

太阳集团游戏官方网址 14

 

5.3 基于Scikit-learn接口的分类

from sklearn.datasets import load_iris
import xgboost as xgb
from xgboost import plot_importance
from matplotlib import pyplot as plt
from sklearn.model_selection import train_test_split

# read in the iris data
iris = load_iris()

X = iris.data
y = iris.target

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

# 训练模型
model = xgb.XGBClassifier(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='multi:softmax')
model.fit(X_train, y_train)

# 对测试集进行预测
ans = model.predict(X_test)

# 计算准确率
cnt1 = 0
cnt2 = 0
for i in range(len(y_test)):
    if ans[i] == y_test[i]:
        cnt1 += 1
    else:
        cnt2 += 1

print("Accuracy: %.2f %% " % (100 * cnt1 / (cnt1 + cnt2)))

# 显示重要特征
plot_importance(model)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35

输出预测精确率以及特色首要性:

Accuracy: 100.00 % 
  • 1

 

太阳集团游戏官方网址 15

 

5.4 基于Scikit-learn接口的回归

import xgboost as xgb
from xgboost import plot_importance
from matplotlib import pyplot as plt
from sklearn.model_selection import train_test_split

# 读取文件原始数据
data = []
labels = []
labels2 = []
with open("lppz5.csv", encoding='UTF-8') as fileObject:
    for line in fileObject:
        line_split = line.split(',')
        data.append(line_split[10:])
        labels.append(line_split[8])

X = []
for row in data:
    row = [float(x) for x in row]
    X.append(row)

y = [float(x) for x in labels]

# XGBoost训练过程
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)

model = xgb.XGBRegressor(max_depth=5, learning_rate=0.1, n_estimators=160, silent=True, objective='reg:gamma')
model.fit(X_train, y_train)

# 对测试集进行预测
ans = model.predict(X_test)

# 显示重要特征
plot_importance(model)
plt.show()
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34

一言九鼎特点(值越大,表达该特征越首要)显示结果:

 

太阳集团游戏官方网址 16

 

未完待续……


对机器学习和人工智能感兴趣,请微信扫码关怀群众号!

 

 

太阳集团游戏官方网址 17

 

 

本文由澳门太阳集团城网址发布于战役战争,转载请注明出处:干什么特种部队HALO高跳低开陶冶要吹风洞

关键词:

SOG秘闻:9人对3000,美军越南战争阿肖谷之战

越共将领:SOG形成了我们百分之七十的伤亡题图:一九六七年三月末,搭乘南越陆军219非同一般行动中队H-34直接升学...

详细>>

深入敌后大不列颠及英格兰联合王国版——SAS在

深入敌后英国版,两个倒霉蛋SAS 2005年九月19号 伊拉克,巴士拉英军官兵震惊地发现电视机里出现了两个自己人。伊拉...

详细>>

安老,一路走好

太阳集团游戏官方网址,B-52支队是美国陆军特种部队在越南战场组建小规模侦查班的其中一个尝试,而阿肖谷对于那...

详细>>

三角洲上的伏击——海豹在越南战争中的伏击战

序言:那篇作品是从某死人手上的一本叫《Weapons of NavySEALs》的书里翻译的,描述的是海豹队叁次独立的设下伏兵职分...

详细>>