爿丫⊥≡∽k奚↙笙⊥::人峡☆∥▽≡费

文章摘要信息
西南交通大学学报&2008,&43(3)&297-303&DOI:
&&&&ISSN:&&CN:&51-1277/U
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
服务与反馈
本文关键词相关文章
本文作者相关文章
支持向量回归中核函数和超参数选择方法综述
肖建, 于龙, 白裔峰
西南交通大学电气工程学院, 四川, 成都, 610031
支持向量回归(SVR)模型结构对降低经验风险和减小置信范围十分重要.为了系统深入地分析SVR模型选择方法,将现有的典型的模型选择方法分为核的选择和超参数确定,并从不同的方面对其进行了综述和评价.SVR的精确性和推广能力很大程度上依赖于核函数及超参数.提出了今后研究的方向.
Survey of the Selection of Kernels and Hyper-parameters in Support Vector Regression
XIAO Jian, YU Long, BAI Yifeng
School of Electrical Eng., Southwest Jiaotong University, Chengdu 610031, China
The structure of support vector regression model plays an important role in simultaneously reducing both the empirical risks and confidence intervals.To make a systematical analysis,the existing typical methods for SVR model selection were classified into two major categories: kernel selection and hyper-parameter determination.These selection methods were surveyed and discussed from various aspects.The accuracy and generalization ability of SVR heavily depend on kernel function and hyper-parameters.Future research directions were suggested.
收稿日期&&修回日期&&网络版发布日期&&
国家自然科学基金资助项目();博士点基金资助项目()
作者简介: 肖建(1950- ),男,教授,博士生导师,研究方向为机器学习、计算机控制、鲁棒控制,E-mail:jxiao@nec.
参考文献:
[1] VAPINK V.Statistical learning theory[M].New York:Wiley,1998.[2] SCH LKOPF B,SMOLA A J,BARTLETT P L.New support vector algorithms[J].Neural Computation, 207-1 245.[3] SUY(O)KENS J A K,VANDEWALLE J.Least squares support vector machine classifiers[J].Neural Processing Letters,):293-300.[4] SUYKENS J A K,BRANBANTER J K.Weighted least squares support vector machines:robustness and spare approximation[J].Neurocomputing,):85-105.[5] SCH(O)LKOPF B,SIMARDZ P Y.Prior knowledge in support vector kernels[C] ∥Advances in Neural Information Processing Systems.Cambridge:MIT Press,.[6] 吴涛,贺汉根,贺明科.基于插值的核函数构造[J].计算机学报,):990-996.Wu Tao,He Hangen,He Mingke.Interpolation based kernel function's construction[J].Chinese Journal of Computers,):990-996.[7] GOLD C,SOLLICH P.Model selection for support vector machine classification[J].Neurocomputing,-2):221-249.[8] SHAWE T J,CRISTIANINI N.Kernel methods for pattern analysis[M].London:Cambridge University Press,2004.[9] TAKIMOTO E,WARMUTH M.Path kernels and multiplicative updates[J].Journal of Machine Learning Research,):773-818.[10] SMITS G F,JORDAN E M.Improved SVM regression using mixtures of kernels[C] ∥Proceedings of the International Joint Conference on Neural Networks.Honolulu:Institute of Electrical and Electronics Engineers Inc., 785-2 790.[11] LIU Jingxu,LI Jin,TAN Yuejin.An empirical assessment on the robustness of support vector regression with different kernels[C] ∥International Conference on Machine Learning and Cybernetics.Guangzhou:Institute of Electrical and Electronics Engineers Computer Society,-4 294.[12] 朱燕飞,伍建平,李琦,等.MISO系统的混合核函数LS-SVM建模[J].控制与决策,):417-425.ZHU Yanfei,WU Jianping,LI Qi,et al.Modeling of LS-SVM based on mixtures of kernels for MISO systems[J].Control and Decision,):417-425.[13] VAPNIK V,GOLOWICH S,SMOLA A.Support vector method for function approximation,regression estimation,and signal processing[J].Neural Information Processing Systems,-287.[14] STITSON M O,GAMMERMAN A,VAPNIK V.Support vector regression with ANOVA decomposition kernels[C] ∥Advances in Kernel Methods-Support Vector Learning.Cambridge:MIT Press,.[15] SMOLA A J,SCH(O)LKOPF B.The connection between regularization operators and support vector kernels[J].Neural Networks, 445-1 454.[16] GENTON M G.Classes of kernels for machine learning:a statistics perspective[J].Journal of Machine Learning Research,-312.[17] ZHANG Li,ZHOU Weida,JIAO Licheng.Wavelet support vector machine[J].IEEE Trans.on Systems,Man,and Cybernetics-Part B:Cybernetics,):34-39.[18] 胡丹,肖建,车畅.尺度核支持向量机及在动态系统辨识中的应用[J].西南交通大学学报,):460-465.Hu Dan,XIAO Jian,CHE Chang.Support vector machine with scaling kernel and its application in dynamic system identification[J].Journal of Southwest Jiaotong University,):460-465.[19] LANCKRIET G R,CRISTIANINI N,BARTLETT P.Learning the kernel matrix with semi-definite programming[J].Journal of Machine Learning Research,):27-72.[20] QIU S B,LANE T.Multiple kernel learning for support vector regression[DB/OL].()[].http:∥www.cs.unm.edu/~treport/tr/05-12/QiuLane.[21] CHALIMOURDA A,SCH LKOPF B,SMOLA A J.Experimentally optimal ν in support vector regression for different noise models and parameters settings[J].Neural Networks,):127-141.[22] USTUN B,MELSSEN W J,OUDENHUIJZEN M.Determination of optimal support vector regression parameters by genetic algorithms and simplex optimization[J].Analytica Chimica Acta,-2):292-305.[23] MOMMA M,BENNETT B P.A pattern search for model selection of support vector regression[C] ∥Proceedings of SIAM Conference on Data Mining.Philadephia:SIAM,.[24] KENTARO I,RYOHEI N.Optimizing support vector regression hyperparameters based on cross-validation[C] ∥Proceedings of the International Joint Conference on Neural Networks.Portland:Institute of Electrical and Electronics Engineers Inc., 077-2 082.[25] CAWLEY G C,TALBOT N L C.Improved sparse least-squares support vector machines[J].Neurocomputing, 025-1 031.[26] LENDASSE A,SIMON G,WERTZ V.Fast bootstrap methodology for regression model selection[J].Neurocomputing,-4):161-181.[27] MACKAY D J C.Bayesian interpolation[J].Neural Computation,):415-447.[28] GAO J B,GUNN S R,HARRIS C J.A probabilistic framework for SVM regression and error bar estimation[J].Machine Learning,-89.[29] LIN C J,WENG R C.Simple probabilistic predictions for support vector regression[R].Taipei:Department of Computer Science,National Taiwan University,2004.[30] LAW M H,KWOK J T.Bayesian support vector regression[C] ∥Proceedings of 8th Int.Workshop on Artificial Intelligence and Statistics.Florida:Key West,.[31] 阎威武,常俊林,邵惠鹤.一种贝叶斯证据框架下支持向量机建模方法的研究[J].控制与决策,):525-533.YAN Weiwu,CHANG Junlin,SHAO Huihe.Modeling method based on support vector machines within the Bayesian evidence framework[J].Control and Decision,):525-533.[32] CHU W,KEERTHI S,ONG C J.Bayesian support vector regression using a unified loss function[J].IEEE Trans.on Neural Networks,):29-44.[33] CRISTIANINI N,SHAWE T J.An introduction to support vector machines and other kernel-based learning methods[M].Cambridge:Cambridge University Press,2000.[34] BOUSQUET O,ELISSEEFF A.Stability and generalization[J].Journal of machine learning research,-526.[35] CHANG M W,LIN C J.Leave one out bounds for support vector regression model selection[J].Neural Computation, 188-1 222.[36] GAO J B,GUNN S R,HARRIS C J.SVM regression through variational methods and its sequential implementation[J].Neurocomputing,-2):151-167.[37] WANG Wenjian,XU Zongben,LU Weizhen,et al.Determination of the spread parameter in the Gaussian kernel for classification and regression[J].Neurocomputing,-4):643-663.[38] CHERKASSKY V,MA Y.Practical selection of SVM parameters and noise estimation for SVM regression[J].Neural Networks,):113-126.[39] JENG J T.Hybrid approach of selecting hyperparameters of support vector machine for regression[J].IEEE Trans.on Systems,Man,and Cybernetics-Part B:Cybernetics,):699-709.
本刊中的类似文章
文章评论&(请注意:本站实行文责自负, 请不要发表与学术无关的内容!评论内容不代表本站观点.)
Copyright 2008 by 西南交通大学学报工具类服务
编辑部专用服务
作者专用服务
高拱坝混凝土设计强度和耐久性研究
高拱坝混凝土设计强度与坝体内的应力息息相关,各国坝工专家或规范都以最大主压应力的安全系数来选取其强度.而混凝土的强度在相同原材料、在相同配合比情况下,与其所用的试件尺寸、形状、龄期、试验条件(养护环境、加荷速率、受力状态)等关系密切.所谓混凝土耐久性,是指用该种混凝土建筑物的混凝土在正常情况下的使用寿命.二滩拱坝混凝土的骨料为人工破碎的正长岩,其90 d龄期的极限拉伸值大于1.0×10-4.混凝土的耐久性和强度,决定于原材料的质量、水胶比、配合比、施工质量和混凝土的龄期等,在混凝土原材料、施工质量、水胶比(相同龄期)三者中,水胶比是核心.二滩工程实际的水胶比最大为0.486,对混凝土水胶比的限制,不仅是为了满足,抗冻、抗渗需要,同时也可提高其强度,特别是早期强度和抗裂能力.提高抗水流冲刷、磨损、抗侵蚀、抗碳化、抗气蚀等,对高拱坝混凝土性能的提高都有好处.
作者单位:
中国水电顾问集团成都勘测设计研究院,成都市,610072
年,卷(期):
机标分类号:
在线出版日期:
本文读者也读过
相关检索词
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)(C)北京万方数据股份有限公司
万方数据电子出版社全国报刊部分哲学论文索引--《哲学动态》2000年08期
全国报刊部分哲学论文索引
【摘要】:
【关键词】:
【分类号】:B0【正文快照】:
马列主义经典作家哲学思想研究从马克思的“物象化”理论到后现代主义的“拟象化”理论 /刘怀玉∥南京大学学报 ,2 0 0 0 .3终极关怀观的启迪与超越——试析马克思对黑格尔“整体主义”价值观的扬弃 /胡建∥人文杂志 ,2 0 0 0 .3马克思没有提出跨越资本主义”卡夫丁峡谷”的
欢迎:、、)
支持CAJ、PDF文件格式,仅支持PDF格式
【相似文献】
中国期刊全文数据库
艾力农;[J];中州学刊;1980年02期
向熙扬;[J];中州学刊;1980年02期
徐开来;[J];四川大学学报(哲学社会科学版);1980年04期
卢婉清;[J];哲学研究;1980年08期
吴江;[J];哲学研究;1980年09期
严北溟;[J];哲学研究;1980年09期
包遵信;[J];哲学研究;1980年09期
邹铁军;[J];吉林大学社会科学学报;1980年03期
舒炜光;[J];吉林大学社会科学学报;1980年04期
顾芳福;[J];吉林大学社会科学学报;1980年05期
中国重要会议论文全文数据库
宋禾;;[A];回首50年 展望新世纪——吉林省纪念新中国成立五十周年理论研讨会文集[C];1999年
田杉;龙炳文;;[A];苗学研究会成立大会暨第一届学术讨论会论文集[C];1989年
龙升照;;[A];第三届全国人—机—环境系统工程学术会议论文集[C];1997年
方雪利;;[A];邓小平理论与国有企业改革——“全国邓小平理论与国有企业改革”学术交流大会论文集[C];1998年
杨俊一;;[A];人学与现代化——全国首届人学研讨会论文集[C];1997年
刘鄂培;;[A];传统与创新——第四届冯友兰学术思想研讨会论文集[C];2000年
柳仁熙;;[A];纪念朱子诞辰870周年会议文集[C];2000年
蒙培元;;[A];朱子学与21世纪国际学术研讨会论文集[C];2000年
金周昌;;[A];朱子学与21世纪国际学术研讨会论文集[C];2000年
鞠业强;;[A];探索 创新 发展[C];2000年
中国重要报纸全文数据库
苏晓明;[N];中国保险报;2000年
刘小菁;[N];中国妇女报;2000年
杨云慧;[N];中国教育报;2000年
沈亚生;[N];中国教育报;2000年
未然;[N];中国教育报;2000年
肖雨;[N];中国教育报;2000年
毛亚庆(作者单位:北京师范大学教育管理学院);[N];中国教育报;2000年
张家诚;[N];中国气象报;2000年
张勇军;[N];中国税务报;2000年
伍学焱;[N];大众科技报;2000年
中国博士学位论文全文数据库
顾修全;[D];湖南中医学院;2001年
陈贇;[D];华东师范大学;2001年
王振龙;[D];东北财经大学;2001年
邹跃进;[D];中央美术学院;2002年
马晓英;[D];中央民族大学;2003年
吴芸茜;[D];华东师范大学;2003年
王艳秋;[D];华东师范大学;2003年
朱健平;[D];华东师范大学;2003年
孙斌;[D];复旦大学;2003年
陈赟;[D];华东师范大学;2001年
中国硕士学位论文全文数据库
蔡莉莉;[D];首都师范大学;2000年
杨清林;[D];广西师范大学;2000年
杨小霞;[D];福建师范大学;2001年
李雁飞;[D];山东师范大学;2001年
王志军;[D];黑龙江大学;2001年
宁莉娜;[D];黑龙江大学;2001年
高兴智;[D];云南师范大学;2001年
黄珊;[D];广西师范大学;2001年
臧公余;[D];苏州大学;2002年
崔卫峰;[D];陕西师范大学;2002年
&快捷付款方式
&订购知网充值卡
400-819-9993
《中国学术期刊(光盘版)》电子杂志社有限公司
同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 大众知识服务
出版物经营许可证 新出发京批字第直0595号
订购热线:400-819-82499
服务热线:010--
在线咨询:
传真:010-
京公网安备75号}

我要回帖

更多关于 k丫是什么 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信