登录
专栏 0 关注 8 篇文章
苏州谷歌开发者社区
苏州谷歌开发者社区
DerekGrant
关注专栏
推荐文章
8 天前  /  DerekGrant

Ubuntu16.04 下安装GPU版TensorFlow(包括Cuda和Cudnn)

因为windows只支持py3版本的tensorflow,而很多项目是用py2构建的,所以我又尝试在Ubuntu16.04中再次安装GPU版的tensorflow。我们需要安装的内容有Cuda8.0和Cudnn5.1和tensorflow-gpu。硬件检测检查你的显卡是否可以安装Cuda首先,你要有一块NVIDA的显卡,然后性能评分要大于3.0TensorFlow GPU support requires having a GPU card with NVidia Compute Capabil

2 赞 0 评论
收藏
8 天前  /  DerekGrant

【转载】关于机器学习的领悟与反思

作者介绍 张志华教授北京大学数学学院教授,北京大数据研究院高级研究员。曾在浙江大学和上海交通大学计算机系任教。主要从事机器学习与应用统计等领域的教学与科研工作。近年来,人工智能的强势崛起,特别是去年AlphaGo和韩国九段棋手李世石的人机大战,让我们深刻地领略到了人工智能技术的巨大潜力。数据是载体,智能是目标,而机器学习是从数据通往智能的技术、方法途径。因此,机器学习是数据科学的核心,是现代人工智能的本质。通俗地说,机器学习就是从数据中挖掘出有价值的信息。数据本身是无意识的,它不能自动呈现出有用

0 赞 0 评论
收藏
8 天前  /  DerekGrant

Windows10下安装原生TensorFlow GPU版

下载 CUDA 8.0 和 cuDNN v6 for CUDA 8.0(下载cuDNN需要先注册NVIDIA开发账户并登录才能看到下载界面)CUDA 9 要TF 1.5版本才支持安装CUDA解压cuDNN到一个你喜欢的位置,复制文件夹的绝对路径并加到 PATH 环境变量去,然后把该文件夹下的bin文件夹的路径也放到PATH里去安装Anaconda Python 3.5 version:注意windows tf 仅支持 python 3.5安装 tf为了避免之后使用 pip 安装 tf 报错,请先

0 赞 0 评论
收藏
13 天前  /  DerekGrant

线性判别分析 Linear Discriminant Analysis,LDA

线性判别分类器由向量$w$和偏差项$b$构成。给定样例$x$,其按照如下规则预测获得类别标记$y$,即$y=sign(w^Tx+b)$后面统一使用小写表示列向量,转置表示行向量。分类过程分为如下两步:首先,使用权重向量w将样本空间投影到直线上去然后,寻找直线上一个点把正样本和负样本分开。为了寻找最有的线性分类器,即$w$和$b$,一个经典的学习算法是线性判别分析(Fisher's Linear Discriminant Analysis,LDA)。简要来说,LDA的基本想法是使不同的样本尽量原理

0 赞 0 评论
收藏
13 天前  /  DerekGrant

Decision Tree 决策树

决策树(decision tree)是一种基本的分类与回归方法。《统计机器学习》主要介绍了用于分类的决策树,《机器学习实战》主要介绍了回归树,两者结合能帮助很好地理解决策树。在分类问题中,表示基于特征对实例进行分类的过程。它可以被认为是if-then规则的集合,也可以认为是定义在特征空间与类空间上的条件概率分布。其主要有点是模型具有可读性,分类速度快。学习时,利用训练数据,根据损失函数最小化的原则建立决策树模型。预测时,对新的数据,利用决策书模型进行分类。决策树学习通常包括3个步骤:特征选择、决

1 赞 1 评论
收藏
13 天前  /  DerekGrant

SVM 支持向量机

支持向量机(support vector machines, SVM)是一种二分分类模型。他的基本模型是定义在特征空间上的间隔最大的线性分类器,间隔最大使它有别与别的感知机;支持向量机还包括核技巧,这使它成为实质上的非线性分类器。支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划(convex quadratic programming)的问题,也等价于正则化的合页损失函数最小化问题。支持向量机的学习算法是求解凸二次规划的最优算法。注:凸二次规划中,局部最优解就是全局最优解。支持向

0 赞 0 评论
收藏
13 天前  /  DerekGrant

瑞利商定义和广义瑞利商

最近在学习LDA,公式推导中很重要的部分就是瑞利商和广义瑞利商。瑞利商定义瑞利商函数是指这样的函数𝑅(𝐴,𝑥)$$R(A,x) = \frac{X^{H}Ax}{X^{H}x}$$其中𝐴为$𝑛×𝑛$的Hermitan矩阵。Hermitan矩阵,就是满足共轭转置矩阵和自己相等的矩阵,$A^{H}=A$。$X^{H}$是$X$的共轭转置矩阵。共轭转置矩阵矩阵有实数矩阵和复数矩阵。转置矩阵仅仅是将矩阵的行与列对换共轭转置矩阵在将行与列对换后还要讲每个元素共轭一下。共轭就是将形如a+bi的数变成a-bi

0 赞 0 评论
收藏
14 天前  /  DerekGrant

特征值与特征向量

最近学习LDA,需要计算特征值与特征向量,就重新学习了一波特征值的计算使用Python比较简单,需要导入numpy的linalg计算。linalg是linear algebra的缩写吧。先导入Numpyimport numpy as np随机生成一个矩阵AA = np.random.rand(4, 4)Aarray([[0.14978175, 0.60689778, 0.02583363, 0.46816227], [0.28508934, 0.74476942, 0.4871127

0 赞 1 评论
收藏