如何评价iphone xNG-ZORRO

> 博客详情
前几天 阿里旗下的UI库更新了!!!
也就是Ant Design在Angular下的实现!取名为ng-zorro。由此Ant Design又添一名大将(原有基于React实现的Ant Design),这无论是对angular4在中国企业级应用的稳固还是Ant Design的延伸都是一步非常重要的路。
&&&&听起来这名字还不错的。反正我蛮喜欢的。
&&&&ok,首先上来是对他的介绍,这里我就不写了,也不贴文章了,一会把官网po出来,刚开始无非
讲讲对Ant Design思想的实现,然后无缝接入angular4啊之类之类的。
& & 当然了,既然是对angular4的实现,那么就一定会遵循angular4 的一些特性或者风格
& & 1.TypeScript& & 2.跨平台特性&& & 3.Rxjs的实现&& & 4.angular4的编程风格
& & 上面那些就不多说了哈,大家多多看看就好了,那上面巴拉巴拉还是说的挺多的。
& & 首先说一下官网给出的文档。
1.中文的。对,这是一个非常好的消息,虽然我不排斥英文文档,但母语面前还是最亲切的吧。
2.组件实例。每个组件下,文档中都会给出多种用法的详细实例,这也是秉承了原来基于React实现下的Ant Design的风格。组件的属性和事件都会给出详细的说明。
& & 我也刚接触,剩下的东西大家需要自己上手体会啊。我就不多说了。。。
& & 剩下的呢我就要说一下遇到的问题
& & angular最新版本与当前ng-zorro还是有些不兼容的,在完成官网的快速上手中就出现了问题,
直接报错了,编译不通过,这个是我始料未及的,连入门教程都通不过呢。。。。
确定自己自己环境项目没有问题后,也确定按照入门教程来做的。还是不通过
官方的github中给出了答案,这里贴出该,官方的回答并没有解释出根本为题处在哪,只是简单的说明了新版的angular的cdk是 2.0.0-beta.10 ,出现了不兼容的问题,如果想正常使用ng-zorro 请下载
2.0.0-beta.8版本,命令如下:
npm install @angular/cdk@2.0.0-beta.8
& &回滚后版本没有问题,可以正常使用。剩下的就是看看文档上手了。我就不多多说了。毕竟我也是刚开始看,说的不好那多尴尬,我不要面子的啊。。
避免尴尬贴一篇文章,知乎上ng-zorro专栏为数不多的文章&&&。
另外贴出来一个基于vs code实现的
老话说的好,背靠大树好乘凉嘛,ng-zorro在阿里团队的带领下肯定有更长远的发展,拭目以待吧
=============8月31日,新版本更新,sdk不兼容问题已解决===========
支付宝支付
微信扫码支付
打赏金额: ¥
已支付成功
打赏金额: ¥jrs,如何客观评价姜维这个人物?
正面评论:智勇双全,才华横溢,孔明死后统帅蜀汉三军的擎天之柱,三十年间为国鞠躬尽瘁。知恩图报,为完成诸葛孔明遗志,继续北伐大业。忠心耿耿,刘禅降魏后依旧设计复兴蜀国,最终以身殉国。反面评论:持才傲物,身为魏国降将,未能完全处理好自身与蜀汉官吏的关系,身为主战派打压主和派,最终与黄皓争宠失败,失去主君信任,不得不屯兵种田以求自保。穷兵黩武,五年五次北伐的开销为蜀国财政带来巨大负担。聪明反被聪明误,未能认清局势对于的自身不利,企图利用钟会与邓艾的矛盾达成复国目标,结果因自不量力失败身亡,落了个死无全尸的下场。
有心杀贼,无力回天
文武半桶水
技能挺给力的。。有时杀不能躲。。
守卫剑阁。
前有诸葛亮六出祁山 后有姜维九伐中原 虽然壮志雄心 一心想消灭曹魏 统一中原 姜维是有这个实力的 论智慧和才能姜维绝不输给诸葛亮 甚至是超越他 但是姜维最大的败笔就是没有弄清楚老窝的状况 也就是说他只知道一味的在前线打仗拼杀,但实际蜀汉当时最大的问题是后方 也就是说是后主刘禅 和他身边的那帮人 因为当时曹魏早就派遣了卧底去刘禅身边去蛊惑他
所以你再勇猛 再有智慧 你没有后方的支援
终究还是落得个失败自刎的下场 人有时候要学会变通 就像当年姜维在曹魏手下的时候
就因为明理所以他转投了蜀汉帐下 而在其九伐中原之时若是能早些处理后方刘禅身边的小人 的话也不会弄的蜀汉劳民伤财 就此一蹶不振如果成功了 或许历史会就此改变 解开新的篇章 所以我认为姜维一个字 傻
二个字 愚昧
!! 诸葛亮是政治家兼军事家,姜维只可成为军事家
[&此帖被大梅西在 23:06修改&]
姜维狠厉害哎 无奈蜀汉后方太垃圾了
蜀国之忙 非将军之罪哎。。
胆大如斗!
汝等小儿,可敢杀我
发自手机虎扑
文及诸葛,武比赵云!但不知道为什么那么多人黑他,他明显是命不好,碰上个煞笔主公
发自手机虎扑
很崇拜他啊。。我是天水人
“姜维粗有文武,志立功名,而玩众黩旅,明断不周,终致陨毙”,陈寿在三国志里这样说他,看样子是吐槽。实际上“穷兵黩武”四个字是后人吐槽他最大的一个黑点。
可是我们细看陈寿在他两个对手的传记里是怎么记载的:“姜维,自一时雄儿也。然与某相值,故穷耳。”——邓艾;
“公侯以文武之德,怀迈世之略,功济巴、汉、声畅华夏,远近莫不归名。每惟畴昔,尝同大化,吴札、郑乔,能喻斯好。”——钟会
还有什么比对手的夸赞更令人信服,同理可比司马宣王长叹那句”天下奇才“,那是对丞相的惺惺相惜的自愧不如。
建安二十四年后,英雄凋敝诸神黄昏,没有了激烈飞扬的英雄气概,只剩下妥协后的老成持重,尤其在五丈原之后,整个三国变得暮气沉沉,孙权化身老年fgxsx在江东各种搅,蒋琬和费祎安心筹划着偏安的小日子,隆中对得伟大筹划?谁还记得,只剩下姜维,在奋命的搏杀。
钟会大兵压境时,他从包围圈里杀出来回剑阁和钟会相持月余,如果没有阴平偷渡,魏的伐蜀计划已经破产了,还有最后三国志和三国演义里同时记载下的那段豪赌式的无间道,在逆境中挣扎,不断被打压不断站起来,所谓百折不挠越挫越勇大概就是这样。
我记得公子在一个答案里说过,整个三国时代,从来没有如此执着的冲击命运的人。
他是不如诸葛亮,那也没什么,那96年里,也就只有一个诸葛亮。
如果非要类比,他大概就是杰里韦斯特,不断失败,燃烧自己一般不断冲击。
第一次北伐遇到姜维,诸葛亮感叹遇到了第一个能屡次破他计谋的人,赵云与他交手势均力敌,完全拿不下,诸葛亮在感叹有如此奇人的时候,赵云都不忘在诸葛边上吹风,说姜维的枪法极其娴熟,是个不可多得的将才。作为一个降将,在明知自己实力比不过魏国的情况下,奋力为蜀国拼杀,不知道还有什么黑点好黑的了,要是其他人,才懒得管呢,我一个降将干嘛这么劳心劳力。当然姜维处理政治这块确实不行,但人总有弱点,诸葛亮还不会武艺不是也是一样么。蜀国后期,人才匮乏的严重,武将第一人和计谋第一人全部都是靠姜维,少一块,估计蜀国更早就被灭,完全没拿得出手的人
以前在GB上玩的一个三国志游戏,曹操和姜维是仅有的两个文武90以上的人
碉堡的存在
无论三国志还是吞食
简直屌炸天哎。。
姜维之殇在于刘禅、在于黄皓、在于蒋费
比他能打的没他聪明,比他聪明的没他能打
秉丞相之遗志,讨篡汉之逆贼
没魏延厉害,反正我那么觉得
发自手机虎扑
引用16楼 @ 发表的:姜维之殇在于刘禅、在于黄皓、在于蒋费
蒋宛是支持姜维的,费祎玩平衡还好吧,伯约终究只是一个弱国昏君的降将
您需要登录后才可以回复,请或者
105人参加识货团购112.00元
14人参加识货团购299.00元
425人参加识货团购899.00元
166人参加识货团购129.00元
285人参加识货团购580.00元
402人参加识货团购999.00元
707人参加识货团购799.00元
205人参加识货团购799.00元
288人参加识货团购799.00元
1871人参加识货团购1399.00元
161人参加识货团购469.00元
256人参加识货团购399.00元共44个结果知乎 “看山杯” 夺冠记 – 码农头条
& 知乎 “看山杯” 夺冠记 知乎 “看山杯” 夺冠记 比赛源码(PyTorch实现)github 地址 /chenyuntc/PyTorchText 比赛官网: /competition/zhihu/ 比赛结果官方通告: /p/ 第二名队伍的参赛方法介绍:2017知乎看山杯 从入门到第二 Update:: 新增2.6训练方法说明 七… 比赛源码(PyTorch实现)github 地址
比赛官网:
比赛结果官方通告:
第二名队伍的参赛方法介绍: Update:: 新增2.6训练方法说明 七月,酷暑难耐,认识的几位同学参加知乎看山杯,均取得不错的排名。当时天池AI医疗大赛初赛结束,官方正在为复赛进行平台调试,复赛时间一拖再拖。看着几位同学在比赛中排名都还很不错,于是决定抽空试一试。结果一发不可收拾,又找了两个同学一起组队(队伍init)以至于整个暑假都投入到这个比赛之中,并最终以一定的优势夺得第一名(参见 )。 1. 比赛介绍 这是一个文本多分类的问题:目标是“参赛者根据知乎给出的问题及话题标签的绑定关系的训练数据,训练出对未标注数据自动标注的模型”。通俗点讲就是:当用户在知乎上提问题时,程序要能够根据问题的内容自动为其添加话题标签。一个问题可能对应着多个话题标签,如下图所示。
这是一个文本多分类,多label的分类问题(一个样本可能属于多个类别)。总共有300万条问题-话题对,超过2亿词,4亿字,共1999个类别。 1.1 数据介绍 参考
总的来说就是: 数据经过脱敏处理,看到的不是“如何评价2017知乎看山杯机器学习比赛”,而是“w2w34w234w54w909w2343w1"这种经过映射的词的形式,或者是”c13c44c4cc02cc234c97cc340"这种经过映射的字的形式。 因为词和字经过脱敏处理,所以无法使用第三方的词向量,官方特地提供了预训练好的词向量,即char_embedding.txt和word_embedding.txt ,都是256 维。 主办方提供了1999个类别的描述和类别之间的父子关系(比如机器学习的父话题是人工智能,统计学和计算机科学),但这个知识没有用上。 训练集包含300万条问题的标题(title),问题的描述(description)和问题的话题(topic) 测试集包含21万条问题的标题(title),问题的描述(description),需要给出最有可能的5个话题(topic) 1.2 数据处理 数据处理主要包括两部分: char_embedding.txt 和 word_embedding.txt 转为numpy格式,这个很简单,直接使用word2vec的python工具即可 对于不同长度的问题文本,pad和截断成一样长度的(利用pad_sequence 函数,也可以自己写代码pad)。太短的就补空格,太长的就截断。操作图示如下:
1.3 数据增强 文本中数据增强不太常见,这里我们使用了shuffle和drop两种数据增强,前者打乱词顺序,后者随机的删除掉某些词。效果举例如图:
1.4 评价指标 每个预测样本,提供最有可能的五个话题标签,计算加权后的准确率和召回率,再计算F1值。注意准确率是加权累加的,意味着越靠前的正确预测对分数贡献越大,同时也意味着准确率可能高于1,但是F1值计算的时候分子没有乘以2,所以0.5是很难达到的。
具体评价指标说明请参照
2 模型介绍 建议大家先阅读这篇文章,了解文本多分类问题几个常用模型: 2.1 通用模型结构 文本分类的模型很多,这次比赛中用到的模型基本上都遵循以下的架构:
基本思路就是,词(或者字)经过embedding层之后,利用CNN/RNN等结构,提取局部信息、全局信息或上下文信息,利用分类器进行分类,分类器的是由两层全连接层组成的。 在开始介绍每个模型之前,这里先下几个结论: 如果你的模型分数不够高,试着把模型变得更深更宽更复杂 当模型复杂到一定程度的时候,不同模型的分数差距很小 当模型复杂达到一定程度,继续变复杂难以继续提升模型的分数 2.2 TextCNN 这是最经典的文本分类模型,这里就不细说了,模型架构如下图:
和原始的论文的区别就在于: 使用两层卷积 使用更多的卷积核,更多尺度的卷积核 使用了BatchNorm 分类的时候使用了两层的全连接 总之就是更深,更复杂。不过卷积核的尺寸设计的不够合理,导致感受野差距过大。 2.3 TextRNN 没找到论文,我就凭感觉实现了一下:
相比于其他人的做法,这里的不同点在于: 使用了两层的双向LSTM。 分类的时候不是只使用最后一个隐藏元的输出,而是把所有隐藏元的输出做K-MaxPooling再分类。 2.4 TextRCNN 参考原论文的实现,和RNN类似,也是两层双向LSTM,但是需要和Embedding层的输出Concat(类似于resnet的shortcut直连)。
2.5 TextInception 这个是我自己提出来的,参照TextCNN的思想(多尺度卷积核),模仿Inception的结构设计出来的,一层的Inception结构如下图所示,比赛中用了两层的Inception结构,最深有4层卷积,比TextCNN更深。
2.6 训练方法 要点: 基于词和基于字的模型要分开训,然后融合,一起训的效果不好 使用官方给的word-embedding.txt和char-embedding.txt初始化Embedding层的权重 刚开始训练的时候Embedding层的学习率为0,其它层的学习率为1e-3,采用Adam优化器(一开始的时候卷积层都是随机初始化的,反向传播得到的Embedding层的梯度受到卷积层的影响,相当于噪声) 训练1-2个epoch之后,Embedding层的学习率设为2e-4 每个epoch或者半个epoch统计一次在验证集的分数 如果分数上升,保存模型,并记下保存路径 如果分数下降,加载上一个模型的保存路径,并降低学习率为一半(重新初始化优化器,清空动量信息,而不是只修改学习率----使用PyTorch的话新建一个新优化器即可) 2.7 各个模型分数计算 训练的时候,每个模型要么只训练基于词(word)的模型,要么只训练基于字(char)的模型。各个模型的分数都差不多,这里不再单独列出来了,只区分训练的模型的类型和数据增强与否。
可以看出来 基于词的模型效果远远好于基于字的(说明中文分词很有必要)。 数据增强对基于词(word)的模型有一定的提升,但是对于基于字(char)的模型主要是起到副作用。 各个模型之间的分数差距不大。 2.8 模型融合 像这种模型比较简单,数据量相对比较小的比赛,模型融合是比赛获胜的关键。 在这里,我只使用到了最简单的模型融合方法-----概率等权重融合。对于每个样本,单模型会给出一个1999维的向量,代表着这个模型属于1999个话题的概率。融合的方式就是把每一个模型输出的向量直接相加,然后选择概率最大的5个话题提交。结构如图所示:
下面我们再来看看两个模型融合的分数:
第一列的对比模型采用的是RNN(不采用数据增强,使用word作为训练数据),第二列是四个不同的模型(不同的结构,或者是不同的数据)。 我们可以得出以下几个结论: 从第一行和第二行的对比之中我们可以看出,模型差异越大提升越多(RNN和RCNN比较相似,因为他们底层都采用了双向LSTM提取特征),虽然RCNN的分数比Inception要高,Inception对模型融合的提升更大。 从第一行和第四行的对比之中我们可以看出,数据的差异越大,融合的提升越多,虽然基于字(char)训练的模型分数比较低,但是和基于词训练的模型进行融合,还是能有极大的提升。 采用数据增强,有助于提升数据的差异性,对模型融合的提升帮助也很大。 总结: 差异性越大,模型融合效果越好。没有差异性,创造条件也要制造差异性。 另外模型融合还有个规律:越往上越难提升,有些模型在你分数较低的时候,对融合提升很明显,当你分数较高的时候就没什么帮助,甚至会有干扰 2.9 MultiModel 其实模型融合的方式,我们换一种角度考虑,其实就是一个很大的模型,每一个分支就像多通道的TextCNN一样。那么我们能不能训练一个超级大的模型?答案是可以的,但是效果往往很差。因为模型过于复杂,太难以训练。这里我尝试了两种改进的方法。 第一种方法,利用预训练好的单模型初始化复杂模型的某一部分参数,模型架构如图所示:
但是这种做法会带来一个问题:
模型过拟合很严重,难以学习到新的东西。因为单模型在训练集上的分数都接近0.5,已经逼近理论上的极限分数,这时候很难接着学习到新的内容。这里采取的应对策略是采用较高的初始学习率,强行把模型从过拟合点拉出来,使得模型在训练集上的分数迅速降低到0.4左右,然后再降低学习率,缓慢学习,提升模型的分数。 第二种做法是修改预训练模型的embedding矩阵为官方给的embedding权重。这样共享embedding的做法,能够一定程度上抑制模型过拟合,减少参数量。虽然CNN/RNN等模型的参数过拟合,但是由于相对应的embedding没有过拟合,所以模型一开始分数就会下降许多,然后再缓慢提升。这种做法更优。在最后提交模型复现成绩的时候,我只提交了七个这种模型,里面包含着不同子模型的组合,一般包含3-4个子模型。这种方式生成的权重文件也比较小(600M-700M左右),上传到网盘相对来说更方便。
2.10 失败的模型或没什么用的方法 MultiMode只是我诸多尝试的方法中比较成功的一个,其它方法大多以失败告终(或者效果不明显) 数据多折训练:因为过拟合严重,想着先拿一半数据训,允许它充分过拟合,然后再拿另外一半数据训。效果不如之前的模型。 Attention Stack,参考了这篇,其实本质上相当于调权重,但是效果有限,还麻烦,所以最后直接用等权重融合(权重全设为1)。 Stack,太费时费力,浪费了不少时间,也有可能是实现有误,提升有限,没有继续研究下去。 Boost,和第二名Koala的方法很像,先训一个模型,然后再训第二个模型和第一个模型的输出相加,但是固定第一个模型的参数。相当于不停的修正上一个模型误判的(可以尝试计算一下梯度,你会发现第一个模型已经判对的样本,即使第二个模型判别错了,第二个模型的梯度也不会很大,即第二个模型不会花费太多时间学习这个样本)。但是效果不好,原因:过拟合很严重,第一个模型在训练集上的分数直接就逼近0.5,导致第二个模型什么都没学到。Koala队伍最终就是凭借着这个Boost模型拿到了第二名,我过早放弃,没能在这个方法上有所突破十分遗憾。 TTA(测试时数据增强),相当于在测试的时候人为的制造差异性,对单模型的效果一般,对融合几乎没有帮助。 Hyperopt进行超参数查询,主要用来查询模型融合的权重,效果一般,最后就也没有使用了,就手动稍微调了一下。 label设权重,对于正样本给予更高的权重,训练模型,然后和正常权重的模型进行融合,在单模型上能够提升2-3个千分点(十分巨大),但是在最后的模型融合是效果很有限(0.0002),而且需要调整权重比较麻烦,遂舍弃。 用分类得到的词向量作为下一个模型的embedding的初始值,因为官方给的word embedding是用无监督的word2vec训练的,和有监督的分类问题还是有一定偏差的。没有深入研究下去,对单模型应该是有提升,但是对融合可能没什么帮助。 3 结束语 我之前虽然学过CS224D的课程,也做了前两次的作业,但是除此之外几乎从来没写过自然语言处理相关的代码,能拿第一离不开队友的支持,和同学们不断的激励。 这次比赛入门对我帮助最大的两篇文章是和 第一篇是北邮某学长(但我并不认识~)写的,介绍了许多文本分类的模型(CNN/RNN/RCNN),对我入门帮助很大。 第二篇是国外某博士写的,当时我已经把分数刷到前三,在家看到了这篇文章,叹为观止,解释了我很多的疑惑,提到的很多经验总结和我的情况也确实相符。 P.S. 为什么队伍名叫init? 因为git init,linux init,python __init__ 。我最喜欢的三个工具。而且pidof init is 1. P.S. 欢迎报考 最后的最后:人生苦短,快用PyTorch! <img src="/c/e69fb3e54fcb10a04a1929c" class="origin_image zh-light
相关推荐:【译】2017 Web 开发者学习路线图 本文是源自 Github 上 Kamran Ahmed 建立的一个仓 [&]...前端与设计资源集(2017 年 4 月) 在本月的资源合集中,我们将与大家分享有关前端与设计类的新工具、代码片 [&]...TensorFlow #01 &#8211; 简单线性模型 by Magnus Erik Hvass Pede [&]...[译] 2017 Web 开发者学习路线图 本文是源自 Github 上 Kamran Ahmed 建立的一个 [&]...七大 GitHub 生产力工具 简评:GitHub 是一个面向开源及私有软件项目的托管平台,同时它也为程序员提 [&]...2017 Top 6 开源项目 简评:开源是最酷的。让我们来看一下 2017 的一些顶尖高手。这个表单最有趣的 [&]...2017 Facebook 开发者大会要点总结 简评:园长按照时间轴,为大家分解一下,昨天 Facebook [&]...EverMonkey:VSCode 印象笔记插件 Evernoting in vscode. Features [&]...更好用的基于 mobx 的数据流管理框架 Vanex 发布 基于mobx & mobx-react的R [&]...前端学习计算机图形学 轮子哥说程序员的三大浪漫:操作系统、图形学、编译原理,学了都是用来给你开眼界的。这些都不 [&]... 今日推荐猜你喜欢
& 知乎 “看山杯” 夺冠记}

我要回帖

更多关于 如何评价拿破仑的功过 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信