2000年至今,由于以Loki、MPL(Boost)等程序库为代表的产生式编程和模板元编程的出现,C++出现了发展历史上又一个新的高峰,这些新技术的出现以及和原有技术的融合,使C++已经成为当今主流程序设计语言中最复杂的一员-维基百科C++词条

丰富的程序库以及本身的语言特性,使得C++在开发效率和运行效率上有着不错平衡,但这同时也增加了学习C++所带来的时间成本,C++疑问集此系列用于记录笔者学习C++路上遇到的问题,对部分易于混淆的知识点加以总结与汇总,以便于读者对C++有更深入的了解。

2000年至今,由于以Loki、MPL(Boost)等程序库为代表的产生式编程和模板元编程的出现,C++出现了发展历史上又一个新的高峰,这些新技术的出现以及和原有技术的融合,使C++已经成为当今主流程序设计语言中最复杂的一员-维基百科C++词条

丰富的程序库以及本身的语言特性,使得C++在开发效率和运行效率上有着不错平衡,但这同时也增加了学习C++所带来的时间成本,C++疑问集此系列用于记录笔者学习C++路上遇到的问题,对部分易于混淆的知识点加以总结与汇总,以便于读者对C++有更深入的了解。

2000年至今,由于以Loki、MPL(Boost)等程序库为代表的产生式编程和模板元编程的出现,C++出现了发展历史上又一个新的高峰,这些新技术的出现以及和原有技术的融合,使C++已经成为当今主流程序设计语言中最复杂的一员-维基百科C++词条

丰富的程序库以及本身的语言特性,使得C++在开发效率和运行效率上有着不错平衡,但这同时也增加了学习C++所带来的时间成本,C++疑问集此系列用于记录笔者学习C++路上遇到的问题,对部分易于混淆的知识点加以总结与汇总,以便于读者对C++有更深入的了解。

前些天在100-Days-Of-ML-Code上回答了一个关于数据拆分与特征缩放的顺序先后的一个issue,感觉挺有争议性的,故单独拎出来做下笔记说明。我的观点是:机器学习工程中,应该先进行数据划分,再进行特征缩放。出于严谨性,本篇文章是从机器学习-数据挖掘方面进行数据拆分与特征缩放的顺序问题阐述,同时也欢迎大家一起讨论这个问题。

由Platt提出的SMO算法是支持向量机学习的一种快速算法,其特点为不断将原二次规划问题分解为只有两个变量的二次子规划问题,并对子问题进行解析求解,直到所有变量满足KKT条件为止。SVM是通过求得全局最优解来进行学习,SVM在面对大规模的训练样本时,效果往往不是很好·,SMO算法正是为了解决这个问题而提出的。至此SVM章节的相关内容就全部结束了(本节思维导图涉及较多的证明过程,各位可根据需要查阅)

注意2018年的这篇文章是基于pyecharts-v0.5编写的,目前最新版本为v1.0,pyecharts-v1.0为船新的版本,详情请看gallery.pyecharts.org

前言

我们都知道python上的一款可视化工具matplotlib,而前些阵子做一个Spark项目的时候用到了百度开源的一个可视化JS工具-Echarts,可视化类型非常多,但是得通过导入js库在Java Web项目上运行,平时用Python比较多,于是就在想有没有Python与Echarts结合的轮子。Google后,找到一个国人开发的一个Echarts与Python结合的轮子:pyecharts,下面就来简述下pyecharts一些使用细则。

这篇综述论文列举出了近年来深度学习的重要研究成果,从方法、架构,以及正则化、优化技术方面进行概述。这篇综述对于刚入门的深度学习新手是一份不错的参考资料,在形成基本学术界图景、指导文献查找等方面都能提供帮助。

论文:Recent Advances in Deep Learning: An Overview

论文地址:https://arxiv.org/pdf/1807.08169v1.pdf

ML网红Siraj Raval发起了一个名为:100-Days-Of-ML-Code的挑战赛,意为鼓励同学们每天抽出点时间来学习机器学习,看看100天后你有了哪些进步目前Github上面最火爆的100-Days-Of-ML-Code就是Avik-Jain的机器学习项目,超赞的配图,清晰的知识点梳理,是入门机器学习非常好的项目** Github:https://github.com/Avik-Jain/100-Days-Of-ML-Code 目前和一群小伙伴已得到Avik-Jain的授权,正在着手对Avik-Jain/100-Days-Of-ML-Code这个项目进行中文版本的编译,不单单只是编译,我们还会在原项目上提交完整的jupyter代码 Github:https://github.com/MachineLearning100/100-Days-Of-ML-Code 这些对正在入门机器学习的同学们是非常好的入门教材,欢迎大家给原作者Avik-Jain和我们中文小组点Star!

项目地址:100-Days-Of-ML-Code

前两篇我们看的是都是适应线性样本的支持向量机,那遇到非线性的分类问题呢?利用核技巧,就可以将线性分类的学习方法应用到非线性分类问题中去,将线性支持向量机拓展到非线性支持向量机,只需将线性支持向量机对偶形式中的内积换成核函数,接下来就来看下非线性支持向量机的思维导图:

上一章讲了线性可分支持向量机,但在实际工程中,样本数据往往是数据不可分的,此时就需要另一种学习器-线性支持向量机,又称线性不可分支持向量机,因为其适用范围更广,所以一般将其称为线性支持向量机,其学习策略为-软间隔最大化(区别于线性可分支持向量机的硬间隔最大化):