Posts

[Success] Hackintosh on Gigabyte Z370N WiFi with i5-8500

I'm new to Hackintosh. When installed it on my comp, I almost got stuck at anywhere except post-installation.

2019-10-18 / 5 min read

How DelegateProxy works in RxSwift?

DelegateProxy is a core feature in Rxswift to wrap the return value from original delegate to observable sequence. So it's important to discover how it works in RxSwift. Under the hood, message forwarding, a feature in Objective-C, plays a role in forwarding message from proxy to real delegate. You should have some basic knowledges about Objective-C Runtime before you go deeper. You can learn that in this post (Chinese version): Objective-C Runtime详解.

2020-03-12 / 15 min read

Objective-C Runtime详解

最近在学习RxSwift,对于DelegateProxy如何进行消息转发问题比较感兴趣,所以仔细阅读了源码,发现其在底层利用了Objective-C Runtime的特性实现消息转发,因此在网上找到了这一系列的文章。
这篇文章大部分内容转自南峰子的技术博客。由于年代久远的关系,其部分图片已经404,遂在这篇文章中进行补齐,同时对于文中描述的一些不是很清楚的内容加入了我的理解。
实际上该系列文章下分六篇独立文章,在我的版本中将单独的文章予以合并以图后续查阅方便。

2020-03-06 / 65 min read

数量统计中相关概念以及分布函数推导的相关过程

在准备考研数学概率论后进行一些相关知识的整理。

2018-12-04 / 11 min read

凸优化问题

机器学习是一个"获取数据 > 选择模型 > 优化问题(调整参数)"的过程,因此优化问题也是非常重要的一环,一般我们会选择一个凸函数来进行优化,因为这种函数性质较好,而且一般来说单纯的优化问题并不复杂,复杂的是在优化的同时需要考虑一些限制条件。因此今天主要来看看凸优化问题。

2018-08-20 / 17 min read

支持向量机(SVM)

支持向量机,support vector machine,是一种二分类模型,其基本模型定义为特征空间上的间隔最大的线性分类器,其学习策略便是间隔最大化,最终可转化为一个凸二次规划问题的求解。因此这里需要一些凸优化的概念,可以参见我之前的博客**[REFERENCES 1]**。

2018-08-19 / 8 min read

决策树与随机森林

决策树(Decision Tree)是目前比较火的模型之一,它的升级版GBDT以及XGBoost等都是广泛应用的,它的思路相比于逻辑回归(Logistic Regression)具有更好的可解释性。

2018-08-16 / 15 min read

LDA主题分类模型

LDA(Latent Dirichlet Allocation)用到了很多数学知识,在这里只对重点的做介绍,其他的可以参见《LDA数学八卦》,文末将会给出下载地址。目前讲LDA很全面的文章且适合于初学者的教程还不是很多,我把我学习的过程中认为对我有帮助的文章都写在了REFERENCES中,如果你看我的文章有不明白的地方也可以阅读一下那些文章。

2018-07-25 / 18 min read

什么是先验/后验分布和似然估计

最近在看LDA,里面经常会提及先验概率、后验概率以及似然估计,而且也经常会遇到贝叶斯等等,今天就来仔细总结一下各种概念。

2018-07-25 / 8 min read

word2vec

**[本文暂时不更新,更多内容请参阅REFERENCES]**Word2vec是目前一种比较火的词向量方案,接下来就探究一下其本质。目前word2vec分为两大方式,一种是cbow一种是skip-gram,这两种方式主要是输入和输出不同。

2018-07-23 / 2 min read

DeepLearning.ai Lesson4 Week1 Summary

最近考试和杂事太多,所以课程进度一直在耽误,现在手中事情稍微少一些了,立刻开始CNN的学习。这周中主要是介绍CNN的原理以及为什么CNN能在计算机视觉领域如此出众,我个人认为这周课程非常有意思。

2018-07-01 / 16 min read

DeepLearning.ai Lesson2 Week3 Summary

这周主要内容是神经网络的超参数调试、Batch正则化以及TensorFlow框架的使用。TensorFlow框架将会是本周学习的重点,使用过之后发现它确实可以节省很多构建网络的时间。!!这次的源码请点击这里查看!!

2018-05-25 / 14 min read

DeepLearning.ai Lesson2 Week2 Summary

这周的内容是神经网络的性能优化,分别从mini-batch, exponentially weighted averages, momentum, RMSprop, Adam和learning rate decay上做了系统性的描述,这里面包含了非常多的超参数,那么让我们一起来回顾一下这周的内容吧。

2018-05-18 / 12 min read

DeepLearning.ai Lesson2 Week1 Summary

吴恩达的DeepLearning.ai Lesson2主要是在Lesson1的基础上讲神经网络的参数调优,如何使NN变得更高效(正则化和初始参数),同时还介绍了如何debug神经网络。学完这些week1越来越感觉神经网络以及机器学习已经变成了一种玄学。接下来我总结一下这几周学到的玄学。本次实验(DeepLearning.ai Quiz)的完整代码(数据+代码)请点击这里

2018-04-30 / 17 min read

Dropout正则化

Dropout正则化(Dropout Regularization)是一个消除数据过拟合情况的工具,与L2正则化所最终的效果差不都,只不过dropout方式更暴力一些。总体来说dropout方式是随机减少每层的神经元来实现的

2018-04-11 / 3 min read

神经网络中使用正则化减少方差

在稍早前的文章中(Bias/Variance(偏差/方差) - DeepLearning.ai Lesson2 #2)有提到过,使用正则化(regularization)可以在不增加偏差的前提下减少方差,所以本文将会解释正则化的原理。

2018-04-07 / 5 min read

相似矩阵

通俗解释

今天《雷神3》上映了,我坐在第一排看电影:

2018-03-30 / 3 min read

行列式的几何意义

综述:矩阵变化的实质是基向量变化,行列式是线性变换的伸缩因子。

2018-03-30 / 4 min read

Bias/Variance(偏差/方差) - DeepLearning.ai Lesson2 #2

什么是偏差和方差

2018-03-27 / 3 min read

DeepLearning.ai Lesson1 Summary

这篇文章是一次学习DeepLearning.ai的Lesson 1的一次总结,起因是在几个月没有继续学习深度学习有关内容后,之前的一些基础已经有些忘却了,所以通过这次总结快速唤醒之前的记忆,也为了防止下一次忘记某个知识点需要重新去视频中寻找。

2018-03-23 / 15 min read