计算机系统应用教程网站

网站首页 > 技术文章 正文

统计学/机器学习中不明觉厉的专业术语

btikc 2025-02-19 11:03:33 技术文章 8 ℃ 0 评论

很多学科里都有一些唬人的、不明觉厉的术语,主要有两个原因,第一,为了纪念这个理论的发明者;第二,一些新学科,很多理论还是由一堆论文组成,还没出现一个领军人物去总体概括。


像数学这种学科已经出现了上千年,很多难理解的术语早已被驯化的通俗易懂,假如把圆周率叫做祖冲之率,把勾股定律叫做毕达哥拉斯定理,只能把简单问题复杂化。但在很多新学科里,不明觉厉的术语为初学者造成了很大的理解障碍。


我感觉《统计学》是使用不明觉厉术语最多的学科之一,很多术语背后的思想很简单



极大似然估计。maximum likelihood estimate ,直译“极大可能估计”,一个猎人和一个没用过枪的普通人去打猎,一声枪响后一只兔子被打死,请问谁打死兔子的概率大?当然是猎人。


朴素贝叶斯naive bayes,选择具有最高概率的决策。一个人平时喜欢乐于助人,你说这个人是好人的概率大?还是坏人的概率大?


马尔可夫链。前天,昨天,今天的天气都会影响明天的天气,但影响最大的是今天的天气


高斯分布:也叫正态分布 normal distribution ,正态:比较正常姿态,不是abnormal变态。师范大学的英文是Normal University,Normal就是正态、正经、为人师表


回归分析,regression analysis,一个省份的人平均身高在100年内几乎是不变的,假设是1.7米,即使出现了2.26米的姚明,但姚明的后代身高肯定要往1.7米回归,不可能超过2.26米,即使姚明的女儿10岁时已经1.7米。可以用万有引力,物极必反来理解。


Logistics回归:最小二乘法计算回归线


Apriori。拉丁语:来自以前,如果某个集合频繁出现(比如购物篮中的商品),那么他的子集也频繁出现


德尔菲法则。Delphi Method,意见加权平均。市场调查时,给不同水平的专家设置不同的权重,因为院士、教授、总经理、经理,普通员工,经验和知识水平差别很大,避免1人1票制的弊端。


神经网络:Artificial Neural Network,模仿人的大脑决策,分为好几层神经元,每层神经元权重不同。这个和德尔菲法有点像,调查一个企业对明年收益的看法,先调研经理层,再调查总监层,再调查总裁层,每层人的意见权重不一样,最后得到一个结论。


欧氏距离,Euclidean Distance,欧:欧几里得,二维空间两个点的距离 = (x1-x2)2+ (y1-y2)2 ,再开平方。可以推广到N维空间。


曼哈顿距离,Manhattan Distance,两个点的距离 = |x1-x2| + |y1-y2|,取名的原因是便于出租车司机计算A点到B点的街区距离,因为从A点到B点的路线一般不是一条直线


决策树找相亲对象:有房吗?→有车吗?→ 帅吗?→ 1.8m以上吗?回答是才能继续。每个决策节点都有清晰的界限,可以把相亲对象清晰的分类


假设检验Hypothesis test 统计学里用来证明小概率事件不会发生的一套八股文方法,不能保证绝对准确

例子:某公司开发了一种新药,假设药效和旧药效果没差别(H0,不希望出现的事),找两组病人做药效对照试验,发现新药有效的概率大于旧药,拒绝H0假设(当然对照试验只能代表一批样本,不能代表整体,也有可能新药和旧药效果没差别,但在目前的概率下,认为新药效果好)


支持向量机Support Vector Machine,寻找一个分割平面,使平面附近的数据点,到分割平面的距离最大,与最小二乘法(回归)类似


K-mean聚类:根据数据点之间的(欧氏)距离,把数据点分为K类


kNN近邻算法:k-Nearst Neighbor, 近朱者赤近墨者黑,一个人的认知水平,与他最关注的k个人有关,可以与最大关注的人的水平化为一类

新上市一个车型,应该划分到哪个细分市场?找与他竞争强度最大的k个车型(可使用汽车网站的车型对比数据),选排名第一的竞品所在的细分市场


张量:一维数据叫向量,二维数据叫矩阵,三维数据叫张量



成本函数/代价函数/损失函数,loss/cost function,预测错了要被惩罚,犯错的成本、代价 ,L(w,b)是w和b的函数,不针对特征变量x


梯度下降,gradient descent,机器学习的精髓,像下山一样,找到一个低点,走过去,环顾四周,再找到一个低点,继续网下走,直到到达山脚下,每走一步都更接近山脚,不是瞎走

Tags:

本文暂时没有评论,来添加一个吧(●'◡'●)

欢迎 发表评论:

最近发表
标签列表