博客档案

更一般的加权分块

4月27日,二千零一十九
通过

你可能想知道是什么促使我在周末花了无数个小时在黑帮包上。答案简单明了。正是用户在推动开发工作。上周我发布了wts_bin()函数,显示了两个值权重对单调分块结果的影响(https://statcompute.wordpress.com/2019/04/21/binning with weights)。有人问了一个问题,如果

阅读更多

与重量结合

4月21日,二千零一十九
通过

在处理了暴徒包之后,如果我能编写一个考虑了加权方案的分块函数,我就收到了来自多个用户的请求。从实践的角度来看,这是一个合理的要求。例如,在欺诈检测模型的开发中,我们经常抽样调查非常低的非欺诈案件

阅读更多

WOE转换的批量部署

4月20日,二千零一十九
通过

在总结了函数batch_Woe()之后,现在的目的是允许用户同时对许多独立变量应用Woe转换,我已经完成了MOB包中主要功能的开发,这些功能可用于生产环境中的模型开发。函数batch_Woe()基本上是围绕cal_Woe()的包装器。

阅读更多

单调分仓批量处理

4月13日,二千零一十九
通过

在我的Github存储库中(https://github.com/statcompute/donominaicbinning)采用迭代离散化或等渗回归的方法,设计了多个R函数来实现单调分块。有了这些功能,我们可以一次对一个自变量执行单调分块。然而,在真实的生产环境中,我们经常希望应用分块算法

阅读更多

与GBM的单调绑定

3月31日,二千零一十九
通过

除了上一篇文章中介绍的单调分块算法(https://statcompute.wordpress.com/2019/03/10/a-summary-of-my-home-brew-binning-algorithms-for-scorecard-development)外,在我的Github存储库中添加了另外两个基于广义增强回归模型的函数,gbm_bin()和gbmcv_bin()。函数gbm_bin()在不进行交叉验证的情况下估计gbm模型,并倾向于生成更精细的分块结果。函数gbmcv_bin()估计

阅读更多

生产中的分仓结果部署

3月26日,二千零一十九
通过

在我之前的文章(https://statcompute.wordpress.com/2019/03/10/a-summary-of-my-home-brew-binning-algorithms-for-scorecard-development)中,我已经展示了不同的单调分块算法,我开发了一段时间。然而,如果生产中没有部署车辆,这些装箱功能都是无用的。在周末,我终于有时间起草了一个R函数(https://github.com/statcompute/donominaicbinning/blob/master/code/calc-wou.r),可以用来部署分块结果并应用

阅读更多

我的自制记分卡开发组合算法概述

3月10日,二千零一十九
通过

到目前为止,我已经为记分卡开发发布了四种不同的单调分块算法,并认为这可能是一个正确的时机做一个快速总结。这些分块算法的R函数也可以在https://github.com/statcompute/donominaicbinning上找到。第一个是在2017年发布的(https://statcompute.wordpress.com/2017/01/22/dumonic-binning-with-smbinning-package),基于我的SAS宏(https://statcompute.wordpress.com/2012/06/10/a-sas-macro-implementation-dumonic-wo-transformation-in-scorecard-development),其中

阅读更多

超参数的贝叶斯优化

2月24日,二千零一十九
通过

在过去的几周里,我花了大量时间阅读有关机器学习(ML)背景下自动参数调整的文献,金宝搏网址其中大部分可分为两大类,例如搜索和优化。搜索机制,比如网格搜索,随机搜索,Sobol序列,计算起来可能有点贵。

阅读更多

GLMNET参数的无梯度优化

2月23日,二千零一十九
通过

在帖子https://statcompute.wordpress.com/2017/09/03/variable-selection-with-leastic-net中,演示了如何优化超参数,即α和γ,使用内置的cv.glmnet()函数。然而,遵循https://statcompute.wordpress.com/2019/02/10/direct-optimization-of-hyper-parameter中显示的类似超参数优化逻辑,我们可以通过无梯度优化直接优化glmnet的α和γ参数,如Nelder–Mead

阅读更多

超参数直接优化

2月10日,二千零一十九
通过

在上一篇文章(https://statcompute.wordpress.com/2019/02/03/sobol-sequence vs-uniform-random-in-hyper-parameter-optimization)中,通过N次交叉验证,分别利用SOBOL序列和均匀随机发生器来识别一般回归神经网络中的最优超参数。虽然Sobol序列的性能稍好,两种方法的结果非常相似,如下所示

阅读更多

搜索R-Blo188bet appggers


赞助商

千万不要错过更新!
订阅R-Bloggers188bet app接收
最新R帖子的电子邮件。
(您将不再看到此消息。)

单击此处关闭(此弹出窗口将不再出现)