了解楷树化学和模树的象征意义

推荐这篇日记的豆列
······楷模_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
上传于||文档简介
&&识​字​教​学​小​经​验
阅读已结束,如果下载本文需要使用5下载券
想免费下载本文?
定制HR最喜欢的简历
你可能喜欢& 孔子:楷模之树
孔子:楷模之树
关键字:&&nbsp
  孔子是世界十大文化名人之一,是中国首席文化名人。2500多年来,在汉文化圈中,孔子是最具有文化影响力的人物,中国人将其称为&孔圣人&。21世纪,随着中国国力提升,汉文化影响力提升,孔子的影响力也将进一步提升。如此,孔子与树的故事,孔子的生态伦理观,不仅是建设&美丽中国&的重要文化资源,也是建设&美丽地球村&的重要文化资源。
  人是树的孝子贤孙。孔子推崇&百行孝为先&,已是妇孺皆知。《论语》学而篇:&弟子入则孝,出则弟,谨而信,泛爱众,而亲仁,行有余力,则以学文。&将&孝&在各种行为中,排在了首位。&孝&的立足点是,尽心奉养和顺从父母;&孝&的至高点是,让父母和颜悦色。《孝经》开宗明义:&身体发肤,受之父母,不敢毁伤,孝之始也;立身行道,扬名於后世,以显父母,孝之终也。夫孝,始於事亲,中於事君,终於立身。&然而,出乎意料的是,儒家将保护树木提升到了孝的境界。《礼记&祭义》:&断一树,杀一兽,不以其时,非孝也。&为什么会如此&较真&,如此&上纲上线&呢?孔子自有其道理:&孝悌之至,通于神明,光于四海,无所不通。&在孔子晚年,鲁国执政季康子向孔子讨教:五帝之太氏为何首推&木德&?孔子答曰:&木,东方,万物之初皆出焉,是故王者则之。&意思是说,日出之地,东方主生,木色青青,象征着万物诞生之处。故,王者效法自然,以木德开始王天下。万物皆生于木,木是万物之祖,也是人类之祖。顺理成章,对祖宗敬之孝之,对父母敬之孝之,必然也对树木孝敬有加。否则,便是&大逆不道&、&忤逆不孝&。如此,人类当是树木的&孝子贤孙&,大自然的&孝子贤孙&!
  孔子独特的生态伦理观,深深地影响了众多门徒。孔子弟子三千,贤者七十二人。其中有个弟子叫高柴,本来就为人憨厚,经孔子训导,成为&推己及人,推己及物&的典范。高柴坚持奉行&启蛰不杀,方长不折&。对此,孔子赞曰:&启蛰不杀,则顺人道也;方长不折,则恕仁也。&即是说,不伤害小虫,不攀折草木,很好地践行了人伦道德,体现了儒者仁恕情怀。&仁&是孔子道德评判的最高标准,以&仁&的高度赞美高柴,足见孔子对高柴践行生态伦理的满意度。据此,&启蛰不杀,方长不折&成为中国人生态伦理观的重要内容。孔子的另一个高徒曾参进一步将其提炼概括为&树木以时伐焉,禽兽以时杀焉。&在百年之后,孔子的继承人孟子将其细化为&斧斤以时入山林&(即采伐树木有一定的时间),&数罟不入闯&(不用细密的网到池中捕鱼),以及&不违农时&,此三者是&王道之始也&。即就是以今天的观点来看,这也是先进的生态伦理观,是永不落后的&科学发展观&!
  在孔子看来,&树木甚茂&是善治的标志。子路是孔子的大弟子,也是得意门生。在追随孔子周游列国后,应卫国的邀请,子路出任蒲邑宰(蒲地方官),以施展政治抱负。临行前,子路向孔子请教,据《孔子家语》记载:&由(仲由,子路自称)愿受教于夫子。&子曰:&蒲其如何?&对曰:&邑多壮士,又难治也。&孔子给了他几条忠告:&然。吾语尔:恭而敬,可以摄勇;宽而正,可以怀强;爱而恕,可以容困;温而断,可以抑奸。如此而加之,则正不难矣。&在孔子指导下,三年之后,蒲地大治。孔子经过蒲地,情不自禁,赞曰:&吾见其政矣。入其境,田畴尽易,草莱甚辟,沟洫深治,此其恭敬以信,故其民尽力也;入其邑,墙屋完固,树木甚茂,此其忠信以宽,故其民不偷也;至其庭,庭甚清闲,诸下用命,此其言明察以断,故其政不扰也。以此观之,虽三称其善,庸尽其美乎?&这不由得使人想起,一位当代政治家所言:不栽树的干部信不过、靠不住。子路治下&树木甚茂&,一定是群众信得过、靠得住的&好干部&了!
  在孔子眼中,做到&思其人,必爱其树&才是&好干部&。《孔子家语》记述,孔子曰:&吾于甘棠,见宗庙之敬也,甚矣。思其人,必爱其树;尊其人,必敬其位,道也。&这里所说,甘棠是一种树,也即是棠梨、杜梨。以今天人的口味,一定觉得杜梨又苦又涩,毫无甘甜可言。然而,周代的人,所以将其称之&甘棠&,未必是果子的甜味,而是穿越时空,心中品出甘甜的味道。甘棠树得到孔子的特殊礼遇,根源在于《诗经》中收录的一首叫诗歌,这首诗歌即《甘棠》:&蔽芾甘棠,勿剪勿伐,召伯所茇。蔽芾甘棠,勿剪勿败,召伯所憩。蔽芾甘棠,勿剪勿拜,召伯所说。&这首诗是孔子一生所爱,不是因为其文学造诣,而是因为其倾注的炽烈爱民与民爱情怀。诗中并没有交代&那是一个春天&,也没有告诉&那是一个伟人&。然而,三千年以来,一直向人们倾诉&一种刻骨铭心的相思&,传递&一种神圣不可侵犯的感情&。西周初年,召伯与周公并肩鼎力,治下政通人和。司马迁在《史记&燕召公世家》中说:&召公之治西方,甚得兆民和。召公巡行乡邑,有棠树,决狱政事其下,自侯伯至庶人各得其所,无失职者。召公卒,而民人思召公之政,怀棠树不敢伐,歌咏之,作《甘棠》之诗。&此所谓&人惠其德,甘棠是思&。唐代刘禹锡《答衢州徐使君》诗云:&闻道天台有遗爱,人将琪树比甘棠。&据此,后世人用成语&甘棠遗爱&来表达对好干部的感激之情,可谓&敬爱其树,其报厚矣。&这是儒家为做官之人设立的熠熠生辉的不朽标杆。
  孔子为做官设立了&树标杆&,也为做人设立了&树标杆&。孔子寄情于树,对松柏尤深。季节更替,冷暖变换,夏也青青,冬也青青,始终如一,是松柏本色。由此,孔子将其视为一种坚毅执著、守道不变的高贵品格,是值得一生坚守和弘扬的君子人格。孔子以为,松柏的品性将人伦道德推向了极致。孔子有一次精彩对话:&人莫鉴于流水而鉴于止水。唯止能止众止。受命于地,唯松柏独也正,在冬夏青青;受命于天,唯尧、舜独也正,在万物之首。幸能正生,以正众生。&孔子赞松柏是物之楷模,尧舜是人之楷模。&幸能正生,以正众生&。人若能如松柏一样,保持纯正心性,就一扫趋炎附势、媚态应变的恶俗,天地间正气充盈。
  孔子是这样说的,也是这样做的。公元前489年,63岁的孔子被围困在陈蔡两国交界处,一连七天只能挖野菜煮汤充饥,憔悴不堪。孔子心地坦然,无所畏惧。倒是学生子路、子贡开始抱怨起来,说孔子曾两次被赶出本土鲁国,在卫国遭铲削足迹的羞辱,在宋国遭推倒歇脚大树的威胁,如今又遭围困迫害,而老师却像无事,照样弹琴唱歌,从未间断。子路直言:看样子,我们走投无路了。孔子循循善诱:&内省而不穷于道,临难而不失其德&。&天寒既至,霜雪既降,吾是以知松柏之茂也。陈蔡之隘,于丘其幸乎!&大意是说,在天寒地冻,霜雪肆虐,万物凋零的情况下,我更清楚地看到松柏树青葱繁茂,以及顶天立地的品性。今天在陈蔡之间遭遇困厄,对我来说还真是一件幸事呢!听罢此话,子路、子贡深受激励,胸中如有松柏挺然,豪情陡生,怨气尽消。在《论语》中,子曰:岁寒,然后知松柏之后凋也。这句话短,蕴含深广,极富诗意,激荡豪情,震撼心灵。古之咏松柏诗文多矣,而孔子短句,历史最久,价值最高。杜甫号称&诗圣&,其赞誉孔明品性与才略的《古柏行》也算是名篇,然却没有令人再三回味的名句。与孔子短句相较,实在难以望其项背。可以说,孔子是松柏的&第一知音&。
  孔子生于乱世,常年车马劳顿,奔走列国,疾声呐喊,主张施行仁政。在奔走列国间歇,亲力亲为,用实际行动,耳濡目染,施行教化。如此辛苦,才赢得了誉满天下的&桃李&。有一次,在旅途中,孔子听闻前面不远处有人哭泣,其哭声非常悲戚。孔子从声音中断定,此人是一位贤者。走到面前,方知是皋鱼。只见皋鱼&被褐拥镰,哭于道旁。&孔子问道:&子非有丧,何哭之悲也?&皋鱼曰:&吾失之三矣:少而学,游诸侯,以后吾亲,失之一也;高尚吾志,间吾事君,失之二也;与友厚而小绝之,失之三矣!树欲静而风不止,子欲养而亲不待也。往而不可追者,年也;去而不可得见者,亲也。吾请从此辞矣!&令人称奇的是,皋鱼在痛陈自己三大过错之后,不是一般地请求宽恕,而是甘愿请死!且果真是&立槁而死&。皋鱼的言行,无疑深深触动了孔子的内心世界。孔子一生鼓吹孝道,而自己却未能亲身践行。孔子3岁丧父,17岁丧母,至今仍在奔波忙碌。真可谓&树欲静而风不止,子欲养而亲不待&。这个故事,再次反映了&百善孝为先&的观念。后世人以&风树之悲&来比喻因父母亡故,不能奉养,借喻丧亲之痛。面对此情此景,孔子曰:&弟子诫之,足以识矣。&要求弟子引以为戒,充分理解其中所包含的做人道理!于是,辞别孔子,回家赡养双亲的门徒十之有三。
  在孔子时代,中华大地,巨木参天,郁郁葱葱。孔子穿行各国,也是穿行于林间树下。孔子一生好学,先后&问礼于老聃,学鼓琴于师襄子,访乐于苌弘。&但在更多的时候,孔子不是学生而是老师。孔子开启中国私人教育之先河,被后人尊为&万世师表&及&至圣先师&。23岁的孔子,即在乡间收徒讲学。最初的学生,有颜回之父颜由、曾参之父曾点、冉耕等。但是,那时有老师,有学生,却缺少教师。孔子授课,不在教室,而在树下。《庄子&渔父》中有这样一段诗意般的文字:&孔子游乎缁帷之林,休坐乎杏坛之上。弟子读书,孔子弦歌鼓琴。&有学者考证,&缁帷&在鲁国都城东门之外。缁帷杏树成林,郁茂蔽日,犹如黑色帷幕,人称&缁帷之林&。杏林之中,有一&土台&,庄子将其称之&杏坛&。可以想象,背依气象森然的杏树之林,高坐讲台之上,学生静静地攻读,孔子以琴声和歌声点化。雍容优雅,情怀境界,尽在其中。多美的课堂,多美的教学。关于&杏坛&,还有一个说法。2013年中央电视台中文国际频道拍摄了《中国古树》系列专题片,在第四集专题介绍了山东省泗水县安山寺的一棵古银杏,此片宣称是&孔子手植银杏&。该片介绍,&孔子手植银杏&树龄2500年,树高21.5米,树围7.9米。进而指出,此银杏树是孔子周游列国时所植。并进一步介绍说,&杏坛&本意是孔子在所栽银杏树下讲学。
  周敬王41年,即公元前479年,孔子辞世,终年73岁。孔子去世后,弟子心丧三年,庐于墓旁者百余室。大弟子子贡知悉噩耗,星夜奔丧,手执哀杖,披麻戴孝。待到灵柩下葬,子贡哀杖已入土尺余,再也没有拔出来。在孔子坟前,子贡搭草庵守墓六年。守墓期间,入土哀杖生根发芽,子贡用心浇培,小树长渐成大树。但这树&柳不是柳,槐不是槐&,取孔子高风亮节,博学善教,世之楷模意,将其名曰&楷树&。孔子墓前的楷树,在明代枯死,而干木存世,建亭勒石为证。《说文解字》云:&楷,木也。孔子冢w渲摺4幽荆月。&后来有人考证,楷树即是黄连木,树冠浑圆,枝叶繁茂,叶色秀丽,气味特殊。黄连木原产中国,散生于平原和丘陵地带,以陕西、山西、河南、河北等省居多,常见于园林景观和乡村绿化。《云南名树古木》记载,兰坪县仁甸河村一黄连木高23米,胸径320厘米,树龄1500年,群众视其为神树、龙树。
  孔子是儒家创始人,周公是儒家先驱。孔子坟前有&楷树&,周公墓前有&模树&。这正是中国文化的传奇色彩和神奇魅力。据《太平广记》引《述异记》载:&鲁曲阜孔子墓上,时多楷木。&清代《广群芳谱》引《淮南草木谱》:&楷木生孔子冢上,其干枝疏而不屈,以质得其直故也。&楷树让人联想起&众人皆醉我独醒&,直道而行,这正是圣人写照。而明人叶盛所著《水东日记》载:&吴澄问吴正道曰:模楷二字假借乎?吴举淮南王安草木谱以对曰:昔模树生周公冢上,其叶春青,夏赤,秋白,冬黑,以色得其正也;楷木生孔子冢上,其余枝疏而不屈,以质得其直也。若正与直可为其法则,况在周公孔子冢乎?&也就是说,模树生长在周公坟上,春天叶子青色,夏天红色,秋天白色,冬天黑色,这四种颜色加上黄色是古代&正色&,即称&五色&。叶盛接着说:&模树和楷树的正和直可作为法则,况且这两种树还生长在周公和孔子的冢上呢,更是万世之楷模了!&从此之后,以树喻人,楷树和模树合称&楷模&,便是&为人师表&的范称。周公坟墓有无&模树&不得而知,现实当中找不到&模树&影子。《说文解字》说得清楚:&模,法也。从木,莫。&也即,模是木制的模具,具有规范之意。
  孔子是&万世师表&,也因此获得&万世敬仰&。受孔子&思其人,必爱其树&思想影响,在孔子去世后,孔门弟子思念恩师的一个重要方式就是在其墓前植树。孔门弟子众多,遍布列国,各自带来家乡树种树苗植于孔子墓前。&弟子各以四方奇木来植,故多异树,鲁人世世代代无能名者。&如此,孔子墓园的小树成大树,大树连片成树林,此即&孔林&。孔林之树,不仅数量多,品类也多。&以百数,皆异种。&其实,在孔子的年代,并不流行厚葬,坟丘普遍较小。现今孔林,气势恢宏,其树木大部分为后世所植。秦汉时期,将坟高筑,有少量墓地和几家守林人。后来,孔子地位日益提高,孔林规模也越来越大。东汉桓帝永寿三年,即公元157年,鲁相韩刃蘅啄梗谀骨霸焐衩乓患洌诙显煺抟患洌晕獬醯热舾苫Ч┛啄谷魃ā5笔笨琢郑&地不过一顷&。南北朝高齐时,植树600株。宋宣和年间,在孔子墓前修造石仪。今日孔林,神道长1000米,苍桧翠柏,夹道侍立,龙干虬枝,多是宋元所植。元文宗至顺二年(公元1331年),孔思凯主修了林墙,构筑了林门。明武十年,即公元1684年,孔林扩为3000亩。雍正八年,即公元1730年,耗帑银25300两重修了各种门坊,并派专官守卫。乾隆五十年,对孔林树株分界清点,共3162棵。自汉以来,重修、增修孔林13次,植树5次,扩充林地3次。目前,孔林周围垣墙长7.25公里,墙高3米多,厚约5米,总面积2平方公里,比曲阜城大得多。孔林现有树木10万多株。&墓古千年在,林深五月寒&。孔林的历史是2500年以来中国历史的缩写。走进孔林,也许更能深刻感受圣人孔子与树的故事所具有的超凡文化魅力。
正在读取...
党双忍 的近期作品[职业日志][职业日志][职业日志][职业日志][职业日志][职业日志]最新资讯
党双忍,经济学教授,生态文化学者,三农问题专家。出版《学习力》、《制度并轨与城乡统筹》、《三农治理策论》、《知识农业与农业转型》等专著。发表上百篇关于学习力、大秦岭、中国树文化、制度并轨、“三农”治理,以及生态…
党双忍 的日志归档
[查看更多]
赞助商广告机器学习理论与实战(九)回归树和模型树
& & & &前一节的回归是一种全局回归模型,它设定了一个模型,不管是线性还是非线性的模型,然后拟合数据得到参数,现实中会有些数据很复杂,肉眼几乎看不出符合那种模型,因此构建全局的模型就有点不合适。这节介绍的树回归就是为了解决这类问题,它通过构建决策节点把数据数据切分成区域,然后局部区域进行回归拟合。先来看看分类回归树吧(CART:Classification And Regression Trees),这个模型优点就是上面所说,可以对复杂和非线性的数据进行建模,缺点是得到的结果不容易理解。顾名思义它可以做分类也可以做回归,至于分类前面在说决策树时已经说过了,这里略过。直接通过分析回归树的代码来理解吧:
from numpy import *
def loadDataSet(fileName):
#general function to parse tab -delimited floats
dataMat = []
#assume last column is target value
fr = open(fileName)
for line in fr.readlines():
curLine = line.strip().split('\t')
fltLine = map(float,curLine) #map all elements to float()
dataMat.append(fltLine)
return dataMat
def binSplitDataSet(dataSet, feature, value):
mat0 = dataSet[nonzero(dataSet[:,feature] & value)[0],:][0]
mat1 = dataSet[nonzero(dataSet[:,feature] &= value)[0],:][0]
return mat0,mat1
上面两个函数,第一个函数加载样本数据,第二个函数用来指定在某个特征和维度上切分数据,示例如(图一)所示:
& & & &注意一下,CART是一种通过二元切分来构建树的,前面的决策树的构建是通过香农熵最小作为度量,树的节点是个离散的阈值;这里不再使用香农熵,因为我们要做回归,因此这里使用计算分割数据的方差作为度量,而树的节点也对应使用使得方差最小的某个连续数值(其实是特征值)。试想一下,如果方差越小,说明误差那个节点最能表述那块数据。下面来看看树的构建代码:
def createTree(dataSet, leafType=regLeaf, errType=regErr, ops=(1,4)):#assume dataSet is NumPy Mat so we can array filtering
feat, val = chooseBestSplit(dataSet, leafType, errType, ops)#choose the best split
if feat == None: return val #if the splitting hit a stop condition return val(叶子节点值)
retTree = {}
retTree['spInd'] = feat
retTree['spVal'] = val
lSet, rSet = binSplitDataSet(dataSet, feat, val)
retTree['left'] = createTree(lSet, leafType, errType, ops)
retTree['right'] = createTree(rSet, leafType, errType, ops)
return retTree
& & & & &这段代码中主要工作任务就是选择最佳分割特征,然后分割,是叶子节点就返回,不是叶子节点就递归的生成树结构。其中调用了最佳分割特征的函数:chooseBestSplit,前面决策树的构建中,这个函数里用熵来度量,这里采用误差(方差)来度量,同样先看代码:
def chooseBestSplit(dataSet, leafType=regLeaf, errType=regErr, ops=(1,4)):
tolS = ops[0]; tolN = ops[1]
#if all the target variables are the same value: quit and return value
if len(set(dataSet[:,-1].T.tolist()[0])) == 1: #exit cond 1
return None, leafType(dataSet)
m,n = shape(dataSet)
#the choice of the best feature is driven by Reduction in RSS error from mean
S = errType(dataSet)
bestS = bestIndex = 0; bestValue = 0
for featIndex in range(n-1):
for splitVal in set(dataSet[:,featIndex]):
mat0, mat1 = binSplitDataSet(dataSet, featIndex, splitVal)
if (shape(mat0)[0] & tolN) or (shape(mat1)[0] & tolN): continue
newS = errType(mat0) + errType(mat1)
if newS & bestS:
bestIndex = featIndex
bestValue = splitVal
bestS = newS
#if the decrease (S-bestS) is less than a threshold don't do the split
if (S - bestS) & tolS:
return None, leafType(dataSet) #exit cond 2
mat0, mat1 = binSplitDataSet(dataSet, bestIndex, bestValue)
if (shape(mat0)[0] & tolN) or (shape(mat1)[0] & tolN):
#exit cond 3
return None, leafType(dataSet)
return bestIndex,bestValue#returns the best feature to split on
#and the value used for that split
这段代码的主干是:
遍历每个特征:
& & & &遍历每个特征值:
& & & & & & & &把数据集切分成两份
& & & & & & & &计算此时的切分误差
& & & & & & & &如果切分误差小于当前最小误差,更新最小误差值,当前切分为最佳切分
返回最佳切分的特征值和阈值
& & & &尤其注意最后的返回值,因为它是构建树每个节点成分的东西。另外代码中errType=regErr 调用了regErr函数来计算方差,下面给出:
& & & & & & & &def regErr(dataSet):
return var(dataSet[:,-1]) * shape(dataSet)[0]
& & & &如果误差变化不大时(代码中(S - bestS)),则生成叶子节点,叶子节点函数是:
def regLeaf(dataSet):#returns the value used for each leaf
return mean(dataSet[:,-1])
这样回归树构建的代码就初步分析完毕了,运行结果如(图二)所示:
& & & & &数据ex00.txt在文章最后给出,它的分布如(图三)所示:
& & & &根据(图三),我们可以大概看出(图二)的代码的运行结果具有一定的合理性,选用X(用0表示)特征作为分割特征,然后左右节点各选了一个中心值来描述树回归。节点比较少,但很能说明问题,下面给出一个比较复杂数据跑出的结果,如(图四)所示:
对应的数据如(图五)所示:
& & & & & & 对于树的叶子节点和节点值的合理性,大家逐个对照(图五)来验证吧。下面简单的说下树的修剪,如果特征维度比较高,很容易发生节点过多,造成过拟合,过拟合(overfit)会出现high variance, 而欠拟合(under fit)会出现high bias,这点是题外话,因为机器学习理论一般要讲这些,当出现过拟合时,一般使用正则方法,由于回归树没有建立目标函数,因此这里解决过拟合的方法就是修剪树,简单的说就是使用少量的、关键的特征来判别,下面来看看如何修剪树:很简单,就是递归的遍历一个子树,从叶子节点开始,计算同一父节点的两个子节点合并后的误差,再计算不合并的误差,如果合并会降低误差,就把叶子节点合并。说到误差,其实前面的chooseBestSplit函数里有一句代码:
#if the decrease (S-bestS) is less than a threshold don't do the split
if (S - bestS) & tolS:
& & & & &tolS 是个阈值,当误差变化不太大时,就不再分裂下去,其实也是修剪树的方法,只不过它是事前修剪,而计算合并误差的则是事后修剪。下面是其代码:
def getMean(tree):
if isTree(tree['right']): tree['right'] = getMean(tree['right'])
if isTree(tree['left']): tree['left'] = getMean(tree['left'])
return (tree['left']+tree['right'])/2.0
def prune(tree, testData):
if shape(testData)[0] == 0: return getMean(tree) #if we have no test data collapse the tree
if (isTree(tree['right']) or isTree(tree['left'])):#if the branches are not trees try to prune them
lSet, rSet = binSplitDataSet(testData, tree['spInd'], tree['spVal'])
if isTree(tree['left']): tree['left'] = prune(tree['left'], lSet)
if isTree(tree['right']): tree['right'] =
prune(tree['right'], rSet)
#if they are now both leafs, see if we can merge them
if not isTree(tree['left']) and not isTree(tree['right']):
lSet, rSet = binSplitDataSet(testData, tree['spInd'], tree['spVal'])
errorNoMerge = sum(power(lSet[:,-1] - tree['left'],2)) +\
sum(power(rSet[:,-1] - tree['right'],2))
treeMean = (tree['left']+tree['right'])/2.0
errorMerge = sum(power(testData[:,-1] - treeMean,2))
if errorMerge & errorNoMerge:
print &merging&
return treeMean
else: return tree
else: return tree
& & & & 说完了树回归,再简单的提下模型树,因为树回归每个节点是一些特征和特征值,选取的原则是根据特征方差最小。如果把叶子节点换成分段线性函数,那么就变成了模型树,如(图六)所示:
& & & (图六)中明显是两个直线组成,以X坐标(0.0-0.3)和(0.3-1.0)分成的两个线段。如果我们用两个叶子节点保存两个线性回归模型,就完成了这部分数据的拟合。实现也比较简单,代码如下:
def linearSolve(dataSet):
#helper function used in two places
m,n = shape(dataSet)
X = mat(ones((m,n))); Y = mat(ones((m,1)))#create a copy of data with 1 in 0th postion
X[:,1:n] = dataSet[:,0:n-1]; Y = dataSet[:,-1]#and strip out Y
xTx = X.T*X
if linalg.det(xTx) == 0.0:
raise NameError('This matrix is singular, cannot do inverse,\n\
try increasing the second value of ops')
ws = xTx.I * (X.T * Y)
return ws,X,Y
def modelLeaf(dataSet):#create linear model and return coeficients
ws,X,Y = linearSolve(dataSet)
def modelErr(dataSet):
ws,X,Y = linearSolve(dataSet)
yHat = X * ws
return sum(power(Y - yHat,2))
& & & &代码和树回归相似,只不过modelLeaf在返回叶子节点时,要完成一个线性回归,由linearSolve来完成。最后一个函数modelErr则和回归树的regErr函数起着同样的作用。
谢天谢地,这篇文章一个公式都没有出现,但同时也希望没有数学的语言,表述会清楚。
数据ex00.txt:
转载请注明来源:
参考文献:
& & & [1]&machine learning in action.Peter Harrington&
看过本文的人也看了:
我要留言技术领域:
你已经自动关注本知识库了哦!
确定要取消收藏吗?
删除图谱提示
你保存在该图谱下的知识内容也会被删除,建议你先将内容移到其他图谱中。你确定要删除知识图谱及其内容吗?
删除节点提示
无法删除该知识节点,因该节点下仍保存有相关知识内容!
删除节点提示
你确定要删除该知识节点吗?三支一扶模拟试题_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
三支一扶模拟试题
上传于||暂无简介
阅读已结束,如果下载本文需要使用1下载券
想免费下载本文?
定制HR最喜欢的简历
下载文档到电脑,查找使用更方便
还剩25页未读,继续阅读
定制HR最喜欢的简历
你可能喜欢}

我要回帖

更多关于 楷树化学 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信