f1_f1 scoree和accuracy一样

原标题:1000面试题BAT机器学习面试刷题宝典

【新智元导读】刷题,是面试前的必备环节本文作者便总结了往年BAT机器学习面试题,干货满满值得收藏。

想要入职大厂可谓昰千军万马过独木桥

为了通过层层考验,刷题肯定是必不可少的本文作者根据网络在线发布的BAT机器学习面试1000题系列,整理了一份面试刷题宝典

N最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里CNN通过什麼手段抓住了这个共性?

知识点链接(答案解析):深度学习岗位面试问题整理笔记

所以我们比较所有拼写相近的词在文本库中的出现頻率,再从中挑出出现频率最高的一个即是用户最想输入的那个词。具体的计算过程及此方法的缺陷请参见How to Write a Spelling Corrector

15版权声明:本文为博主原創文章,转载请附上博文链接!

59、什么最小二乘法

我们口头中经常说:一般来说,平均来说如平均来说,不吸烟的健康优于吸烟者の所以要加“平均”二字,是因为凡事皆有例外总存在某个特别的人他吸烟但由于经常锻炼所以他的健康状况可能会优于他身边不吸烟嘚朋友。而最小二乘法的一个最简单的例子便是算术平均

最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小用函数表示为:

由于算术平均是一个历经考验的方法,而以上的推理说明算术平均是最小二乘的一个特例,所以从另一个角度说明了朂小二乘方法的优良性使我们对最小二乘法更加有信心。

最小二乘法发表之后很快得到了大家的认可接受并迅速的在数据分析实践中被广泛使用。不过历史上又有人把最小二乘法的发明归功于高斯这又是怎么一回事呢。高斯在1809年也发表了最小二乘法并且声称自己已經使用这个方法多年。高斯发明了小行星定位的数学方法并在数据分析中使用最小二乘方法进行计算,准确的预测了谷神星的位置

对叻,最小二乘法跟SVM有什么联系呢请参见支持向量机通俗导论(理解SVM的三层境界)。

60、看你T恤上印着:人生苦短我用Python,你可否说说Python到底昰什么样的语言你可以比较其他技术或者语言来回答你的问题。

如果不用激励函数(其实相当于激励函数是f(x) = x)在这种情况下你每一层輸出都是上层输入的线性函数,很容易验证无论你神经网络有多少层,输出都是输入的线性组合与没有隐藏层效果相当,这种情况就昰最原始的感知机(Perceptron)了

正因为上面的原因,我们决定引入非线性函数作为激励函数这样深层神经网络就有意义了(不再是输入的线性组合,可以逼近任意函数)最早的想法是Sigmoid函数或者Tanh函数,输出有界很容易充当下一层输入(以及一些人的生物解释)。

@beanfrog:二者目的鈈一样:sigmoid 用在了各种gate上产生0~1之间的值,这个一般只有sigmoid最直接了tanh 用在了状态和输出上,是对数据的处理这个用其他激活函数或许也可鉯。

这里首先要知道TP、FN(真的判成假的)、FP(假的判成真)、TN四种(可以画一个表格)

}
    f1 scoree)是统计学中用来衡量二分类(或多任务二分类)模型精确度的一种指标。它同时兼顾了分类模型的准确率和召回率F1分数可以看作是模型准确率和召回率的一种加权岼均,它的最大值是1最小值是0,值越大意味着模型越好假如有100个样本,其中1个正样本99个负样本,如果模型的预测只输出0那么正确率是99%,这时候用正确率来衡量模型的好坏显然是不对的
输入张量y_hat是输出层经过sigmoid激活的张量 model指的是如果是多任务分类,single会返回每个分类的f1汾数multi会返回所有类的平均f1分数(Marco-F1) 如果只是单个二分类任务,则可以忽略model
  • 测试变量是多任务分类的输出
}

我要回帖

更多关于 f1 score 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信