Gavin Blog

Every cloud has a silver lining!

北京房价再预测

基于神经网络

玉楼金阙慵归去 且插梅花醉洛阳 前言 之前为练手Scikit-Learn,使用了一套北京房价数据,由于初学了Tensorflow,便跃跃欲试,便在之前的基础上,利用神经网络练手那套数据了。 步骤 准备数据 沿用之前的数据清洗以及准备代码,得到待使用的数据集: import pandas as pd from sklearn.model_selection imp...

部署网站

基于Nginx+Django+FastCGI/uWSGI

诗万首,酒千觞 几曾著眼看侯王 前言 介绍 Django提供了友好的开发环境,当我们完成开发,准备部署的时候,就该考虑另外的问题了。我决定使用Nginx+Django+FastCGI部署一个网站,特此记录。但是中途发现高版本Django已经不支持FastCGI了,因此采用了uWSGI FastCGI FastCGI是一种服务器与应用通讯的协议,FastCGI全称快速通...

机器学习(十)

人工神经网络

小楼一夜听春雨 深巷明朝卖杏花 前言 介绍 人工神经网络是深度学习中的核心,本次将学习一个ANN架构的快速教程,然后学习多层感知器(MLP),并用其解决MNIST数字分类问题。 人工神经元 有一个或多个二进制(开/关)的输入和一个二进制输出,当一定数量的输入都是激活状态时,人工神经元就会激活其输出。 感知器 介绍 感知器是最简单的ANN架构之一,它基于一个...

机器学习(九)

运行TensorFlow

醉后不知天在水 满船清梦压星河 前言 TensorFlow是一个用于数值计算的强大开源库,非常适合大型机器学习项目。其背后原理很简单,先定义一个用来计算的图,然后执行计算。 基本操作 安装 pip3 install --upgrade tensorflow 检验是否安装成功: python3 -c 'import tensorflow; print(ten...

机器学习(八)

降维

落花人独立 微雨燕双飞 前言 机器学习问题有时候训练实例会涉及几千或上百万个特征,这导致训练十分缓慢,也让我们更难找到合适的方案。因此可以通过减少特征的数量来转化问题难度。但是数据降维会丢失一些数据信息,因此降维虽能加速训练,也会轻微降低系统性能,也让流水线更加复杂。目前降维方法主要有两种:投影、流形学习,降维技术主要有三种常用的:PCA、Kernal PCA、LLE P...

机器学习(七)

集成学习和随机森林

细雨湿衣看不见 闲花落地听无声 前言 集成学习:聚合一组预测器(分类或回归)的预测 随即森林:基于一组决策树,每棵树都是对训练集不同随机子集进行训练,预测结果为得票最多的类别 集成方法:bagging、boosting、stacking… 集成学习 投票分类器 聚合所有分类器的预测,得票最多的结果作为预测类别,这种大多数投票分类器叫做硬投票分类器...

Nginx+PHP服务器架设

基于Cent OS 7

岁暮天寒 彤云酿雪 前言 因为个人比较熟悉Python、Django,所以想在自己的服务器上架设相关服务,但是原有的服务是基于Apache、PHP的,因此想到用Nginx替代Apache。 介绍 Nginx与Apache一样,是web服务器程序。Nginx较之Apache是一个高性能、高并发、低消耗的Http和反向代理服务器,同时也提供了IMAP/POP3/SM...

机器学习(六)

决策树

啼鸟还知如许恨 料不啼清泪长啼血 概述 决策树也是一种多功能的机器学习算法,它可以实现分类和回归任务,甚至是多输出任务。它们功能强大、能够拟合复杂数据集。 决策树训练和可视化 在鸢尾花上训练一个决策树分类器 iris = load_iris() X = iris.data[:,2:]#petal length and width y = ...

机器学习(五)

支持向量机

美人迈兮音尘阙,隔千里兮共明月 临风叹兮将焉歇,川路长兮不可越 概述 支持向量机(SVM)是一个功能强大并且全面的机器学习模型,它能够执行线性分类、非线性分类、回归甚至是异常检测任务。SVM特别适合中小型复杂数据集的分类。 线性SVM分类 基本理论 左图是几个线性分类模型,其中虚线模型效果很差,橙、紫两个模型表现还凑合,但是太多实例在决策边界附近,泛化效果不理想。...

机器学习(四)

训练模型

醉后骑龙吹铁笛 酒醒不知何处 概述 一般情况下,我们不需要了解一个模型内部的工作细节。但是理解一个系统是如何工作的,有助于找到合适的模型、正确的训练算法,以及一套合适的超参数,而且能让我们更高效地执行错误调试和错误分析。 训练模型方法 闭式方程 直接计算出最适合训练集的模型参数(也就是使训练集上的成本函数最小化的模型参数) 梯度下降(迭代优化) 通过迭代的方法...