今年有什么关于人工智能、大数据云计算人工智能、云计算之类比较大的展会?

今天跟大家讲讲云计算、大数据和人工智能。为什么讲这三个东西呢?因为这三个东西现在非常火,并且它们之间好像互相有关系:一般谈云计算的时候会提到大数据、谈人工智能的时候会提大数据、谈人工智能的时候会提云计算……感觉三者之间相辅相成又不可分割。但如果是非技术的人员,就可能比较难理解这三者之间的相互关系,所以有必要解释一下。

我们首先来说云计算。云计算最初的目标是对资源的管理,管理的主要是计算资源、网络资源、存储资源三个方面。

1. 管数据中心就像配电脑

什么叫计算、网络、存储资源?

比如你要买台笔记本电脑,是不是要关心这台电脑是什么样的CPU?多大的内存?这两个就被我们称为计算资源。

这台电脑要上网,就需要有个可以插网线的网口,或者有可以连接我们家路由器的无线网卡。您家也需要到运营商比如联通、移动或者电信开通一个网络,比如100M的带宽。然后会有师傅弄一根网线到您家来,师傅可能会帮您将您的路由器和他们公司的网络连接配置好。这样您家的所有的电脑、手机、平板就都可以通过您的路由器上网了。这就是网络资源。

您可能还会问硬盘多大?过去的硬盘都很小,大小如10G之类的;后来即使500G、1T、2T的硬盘也不新鲜了。(1T是1000G),这就是存储资源。

对于一台电脑是这个样子的,对于一个数据中心也是同样的。想象你有一个非常非常大的机房,里面堆了很多的服务器,这些服务器也是有CPU、内存、硬盘的,也是通过类似路由器的设备上网的。这时的问题就是:运营数据中心的人是怎么把这些设备统一的管理起来的呢?

2. 灵活就是想啥时要都有,想要多少都行

管理的目标就是要达到两个方面的灵活性。具体哪两个方面呢?

举个例子来理解:比如有个人需要一台很小的电脑,只有一个CPU、1G内存、10G的硬盘、一兆的带宽,你能给他吗?像这种这么小规格的电脑,现在随便一个笔记本电脑都比这个配置强了,家里随便拉一个宽带都要100M。然而如果去一个云计算的平台上,他要想要这个资源时,只要一点就有了。

这种情况下它就能达到两个方面灵活性:

时间灵活性:想什么时候要就什么时候要,需要的时候一点就出来了;空间灵活性:想要多少就有多少。需要一个太很小的电脑,可以满足;需要一个特别大的空间例如云盘,云盘给每个人分配的空间动不动就很大很大,随时上传随时有空间,永远用不完,也是可以满足的。

空间灵活性和时间灵活性,即我们常说的云计算的弹性。而解决这个弹性的问题,经历了漫长时间的发展。

第一个阶段是物理设备时期。这个时期客户需要一台电脑,我们就买一台放在数据中心里。

物理设备当然是越来越牛,例如服务器,内存动不动就是百G内存;例如网络设备,一个端口的带宽就能有几十G甚至上百G;例如存储,在数据中心至少是PB级别的(一个P是1000个T,一个T是1000个G)。

然而物理设备不能做到很好的灵活性:

首先是它缺乏时间灵活性。不能够达到想什么时候要就什么时候要。比如买台服务器、买个电脑,都要有采购的时间。如果突然用户告诉某个云厂商,说想要开台电脑,使用物理服务器,当时去采购就很难。与供应商关系好的可能需要一个星期,与供应商关系一般的就可能需要采购一个月。用户等了很久电脑才到位,这时用户还要登录上去慢慢开始部署自己的应用。时间灵活性非常差。其次是它的空间灵活性也不行。例如上述的用户需要一个很小很小的电脑,但现在哪还有这么小型号的电脑?不能为了满足用户只要一个G的内存是80G硬盘的,就去买一个这么小的机器。但是如果买一个大的,又会因为电脑大,需要向用户多收钱,可用户需要用的只有那么小一点,所以多付钱就很冤。

有人就想办法了。第一个办法就是虚拟化。用户不是只要一个很小的电脑么?数据中心的物理设备都很强大,我可以从物理的CPU、内存、硬盘中虚拟出一小块来给客户,同时也可以虚拟出一小块来给其他客户。每个客户只能看到自己的那一小块,但其实每个客户用的是整个大的设备上的一小块。

虚拟化的技术使得不同客户的电脑看起来是隔离的。也就是我看着好像这块盘就是我的,你看着这块盘就是你的,但实际情况可能我的这个10G和你的这个10G是落在同样一个很大很大的存储上。而且如果事先物理设备都准备好,虚拟化软件虚拟出一个电脑是非常快的,基本上几分钟就能解决。所以在任何一个云上要创建一台电脑,一点几分钟就出来了,就是这个道理。

这样空间灵活性和时间灵活性就基本解决了。

5. 虚拟世界的赚钱与情怀

在虚拟化阶段,最牛的公司是VMware。它是实现虚拟化技术比较早的一家公司,可以实现计算、网络、存储的虚拟化。这家公司很牛,性能做得非常好,虚拟化软件卖得也非常好,赚了好多的钱,后来让EMC(世界五百强,存储厂商第一品牌)给收购了。

但这个世界上还是有很多有情怀的人的,尤其是程序员里面。有情怀的人喜欢做什么事情?开源。

这个世界上很多软件都是有闭源就有开源,源就是源代码。也就是说,某个软件做的好,所有人都爱用,但这个软件的代码被我封闭起来,只有我公司知道,其他人不知道。如果其他人想用这个软件,就要向我付钱,这就叫闭源。

但世界上总有一些大牛看不惯钱都让一家赚了去的情况。大牛们觉得,这个技术你会我也会;你能开发出来,我也能。我开发出来就是不收钱,把代码拿出来分享给大家,全世界谁用都可以,所有的人都可以享受到好处,这个叫做开源。

比如最近的蒂姆·伯纳斯·李就是个非常有情怀的人。2017年,他因“发明万维网、第一个浏览器和使万维网得以扩展的基本协议和算法”而获得2016年度的图灵奖。图灵奖就是计算机界的诺贝尔奖。然而他最令人敬佩的是,他将万维网,也就是我们常见的WWW技术无偿贡献给全世界免费使用。我们现在在网上的所有行为都应该感谢他的功劳,如果他将这个技术拿来收钱,应该和比尔盖茨差不多有钱。

开源和闭源的例子有很多:

例如在闭源的世界里有Windows,大家用Windows都得给微软付钱;开源的世界里面就出现了Linux。比尔盖茨靠Windows、Office这些闭源的软件赚了很多钱,称为世界首富,就有大牛开发了另外一种操作系统Linux。很多人可能没有听说过Linux,很多后台的服务器上跑的程序都是Linux上的,比如大家享受双十一,无论是淘宝、京东、考拉……支撑双十一抢购的系统都是跑在Linux上的。

再如有Apple就有安卓。Apple市值很高,但是苹果系统的代码我们是看不到的。于是就有大牛写了安卓手机操作系统。所以大家可以看到几乎所有的其他手机厂商,里面都装安卓系统。原因就是苹果系统不开源,而安卓系统大家都可以用。

在虚拟化软件也一样,有了VMware,这个软件非常贵。那就有大牛写了两个开源的虚拟化软件,一个叫做Xen,一个叫做KVM,如果不做技术的,可以不用管这两个名字,但是后面还是会提到。

6. 虚拟化的半自动和云计算的全自动

要说虚拟化软件解决了灵活性问题,其实并不全对。因为虚拟化软件一般创建一台虚拟的电脑,是需要人工指定这台虚拟电脑放在哪台物理机上的。这一过程可能还需要比较复杂的人工配置。所以使用VMware的虚拟化软件,需要考一个很牛的证书,而能拿到这个证书的人,薪资是相当高,也可见复杂程度。

所以仅仅凭虚拟化软件所能管理的物理机的集群规模都不是特别大,一般在十几台、几十台、最多百台这么一个规模。

这一方面会影响时间灵活性:虽然虚拟出一台电脑的时间很短,但是随着集群规模的扩大,人工配置的过程越来越复杂,越来越耗时。另一方面也影响空间灵活性:当用户数量多时,这点集群规模,还远达不到想要多少要多少的程度,很可能这点资源很快就用完了,还得去采购。

所以随着集群的规模越来越大,基本都是千台起步,动辄上万台、甚至几十上百万台。如果去查一下BAT,包括网易、谷歌、亚马逊,服务器数目都大的吓人。这么多机器要靠人去选一个位置放这台虚拟化的电脑并做相应的配置,几乎是不可能的事情,还是需要机器去做这个事情。

人们发明了各种各样的算法来做这个事情,算法的名字叫做调度(Scheduler)。通俗一点说,就是有一个调度中心,几千台机器都在一个池子里面,无论用户需要多少CPU、内存、硬盘的虚拟电脑,调度中心会自动在大池子里面找一个能够满足用户需求的地方,把虚拟电脑启动起来做好配置,用户就直接能用了。这个阶段我们称为池化或者云化。到了这个阶段,才可以称为云计算,在这之前都只能叫虚拟化。

7. 云计算的私有与公有

云计算大致分两种:一个是私有云,一个是公有云,还有人把私有云和公有云连接起来称为混合云,这里暂且不说这个。

私有云:把虚拟化和云化的这套软件部署在别人的数据中心里面。使用私有云的用户往往很有钱,自己买地建机房、自己买服务器,然后让云厂商部署在自己这里。VMware后来除了虚拟化,也推出了云计算的产品,并且在私有云市场赚的盆满钵满。公有云:把虚拟化和云化软件部署在云厂商自己数据中心里面的,用户不需要很大的投入,只要注册一个账号,就能在一个网页上点一下创建一台虚拟电脑。例如AWS即亚马逊的公有云;例如国内的阿里云、腾讯云、网易云等。

亚马逊为什么要做公有云呢?我们知道亚马逊原来是国外比较大的一个电商,它做电商时也肯定会遇到类似双十一的场景:在某一个时刻大家都冲上来买东西。当大家都冲上买东西时,就特别需要云的时间灵活性和空间灵活性。因为它不能时刻准备好所有的资源,那样太浪费了。但也不能什么都不准备,看着双十一这么多用户想买东西登不上去。所以需要双十一时,就创建一大批虚拟电脑来支撑电商应用,过了双十一再把这些资源都释放掉去干别的。因此亚马逊是需要一个云平台的。

然而商用的虚拟化软件实在是太贵了,亚马逊总不能把自己在电商赚的钱全部给了虚拟化厂商。于是亚马逊基于开源的虚拟化技术,如上所述的Xen或者KVM,开发了一套自己的云化软件。没想到亚马逊后来电商越做越牛,云平台也越做越牛。

由于它的云平台需要支撑自己的电商应用;而传统的云计算厂商多为IT厂商出身,几乎没有自己的应用,所以亚马逊的云平台对应用更加友好,迅速发展成为云计算的第一品牌,赚了很多钱。

在亚马逊公布其云计算平台财报之前,人们都猜测,亚马逊电商赚钱,云也赚钱吗?后来一公布财报,发现不是一般的赚钱。仅仅去年,亚马逊AWS年营收达122亿美元,运营利润31亿美元。

8. 云计算的赚钱与情怀

公有云的第一名亚马逊过得很爽,第二名Rackspace过得就一般了。没办法,这就是互联网行业的残酷性,多是赢者通吃的模式。所以第二名如果不是云计算行业的,很多人可能都没听过了。

第二名就想,我干不过老大怎么办呢?开源吧。如上所述,亚马逊虽然使用了开源的虚拟化技术,但云化的代码是闭源的。很多想做又做不了云化平台的公司,只能眼巴巴的看着亚马逊挣大钱。Rackspace把源代码一公开,整个行业就可以一起把这个平台越做越好,兄弟们大家一起上,和老大拼了。

于是Rackspace和美国航空航天局合作创办了开源软件OpenStack,如上图所示OpenStack的架构图,不是云计算行业的不用弄懂这个图,但能够看到三个关键字:Compute计算、Networking网络、Storage存储。还是一个计算、网络、存储的云化管理平台。

当然第二名的技术也是非常棒的,有了OpenStack之后,果真像Rackspace想的一样,所有想做云的大企业都疯了,你能想象到的所有如雷贯耳的大型IT企业:IBM、惠普、戴尔、华为、联想等都疯了。

原来云平台大家都想做,看着亚马逊和VMware赚了这么多钱,眼巴巴看着没办法,想自己做一个好像难度还挺大。现在好了,有了这样一个开源的云平台OpenStack,所有的IT厂商都加入到这个社区中来,对这个云平台进行贡献,包装成自己的产品,连同自己的硬件设备一起卖。有的做了私有云,有的做了公有云,OpenStack已经成为开源云平台的事实标准。

随着OpenStack的技术越来越成熟,可以管理的规模也越来越大,并且可以有多个OpenStack集群部署多套。比如北京部署一套、杭州部署两套、广州部署一套,然后进行统一的管理。这样整个规模就更大了。

在这个规模下,对于普通用户的感知来讲,基本能够做到想什么时候要就什么什么要,想要多少就要多少。还是拿云盘举例子,每个用户云盘都分配了5T甚至更大的空间,如果有1亿人,那加起来空间多大啊。

其实背后的机制是这样的:分配你的空间,你可能只用了其中很少一点,比如说它分配给你了5个T,这么大的空间仅仅是你看到的,而不是真的就给你了,你其实只用了50个G,则真实给你的就是50个G,随着你文件的不断上传,分给你的空间会越来越多。

当大家都上传,云平台发现快满了的时候(例如用了70%),会采购更多的服务器,扩充背后的资源,这个对用户是透明的、看不到的。从感觉上来讲,就实现了云计算的弹性。其实有点像银行,给储户的感觉是什么时候取钱都有,只要不同时挤兑,银行就不会垮。

到了这个阶段,云计算基本上实现了时间灵活性和空间灵活性;实现了计算、网络、存储资源的弹性。计算、网络、存储我们常称为基础设施Infranstracture, 因而这个阶段的弹性称为资源层面的弹性。管理资源的云平台,我们称为基础设施服务,也就是我们常听到的IaaS(Infranstracture As A Service)。

二、云计算不光管资源,也要管应用

有了IaaS,实现了资源层面的弹性就够了吗?显然不是,还有应用层面的弹性。

这里举个例子:比如说实现一个电商的应用,平时十台机器就够了,双十一需要一百台。你可能觉得很好办啊,有了IaaS,新创建九十台机器就可以了啊。但90台机器创建出来是空的,电商应用并没有放上去,只能让公司的运维人员一台一台的弄,需要很长时间才能安装好的。

虽然资源层面实现了弹性,但没有应用层的弹性,依然灵活性是不够的。有没有方法解决这个问题呢?

人们在IaaS平台之上又加了一层,用于管理资源以上的应用弹性的问题,这一层通常称为PaaS(Platform As A Service)。这一层往往比较难理解,大致分两部分:一部分笔者称为“你自己的应用自动安装”,一部分笔者称为“通用的应用不用安装”。

自己的应用自动安装:比如电商应用是你自己开发的,除了你自己,其他人是不知道怎么安装的。像电商应用,安装时需要配置支付宝或者微信的账号,才能使别人在你的电商上买东西时,付的钱是打到你的账户里面的,除了你,谁也不知道。所以安装的过程平台帮不了忙,但能够帮你做得自动化,你需要做一些工作,将自己的配置信息融入到自动化的安装过程中方可。比如上面的例子,双十一新创建出来的90台机器是空的,如果能够提供一个工具,能够自动在这新的90台机器上将电商应用安装好,就能够实现应用层面的真正弹性。例如Puppet、Chef、Ansible、Cloud Foundary都可以干这件事情,最新的容器技术Docker能更好的干这件事情。通用的应用不用安装:所谓通用的应用,一般指一些复杂性比较高,但大家都在用的,例如数据库。几乎所有的应用都会用数据库,但数据库软件是标准的,虽然安装和维护比较复杂,但无论谁安装都是一样。这样的应用可以变成标准的PaaS层的应用放在云平台的界面上。当用户需要一个数据库时,一点就出来了,用户就可以直接用了。有人问,既然谁安装都一个样,那我自己来好了,不需要花钱在云平台上买。当然不是,数据库是一个非常难的东西,光Oracle这家公司,靠数据库就能赚这么多钱。买Oracle也是要花很多钱的。

然而大多数云平台会提供MySQL这样的开源数据库,又是开源,钱不需要花这么多了。但维护这个数据库,却需要专门招一个很大的团队,如果这个数据库能够优化到能够支撑双十一,也不是一年两年能够搞定的。

比如您是一个做单车的,当然没必要招一个非常大的数据库团队来干这件事情,成本太高了,应该交给云平台来做这件事情,专业的事情专业的人来做,云平台专门养了几百人维护这套系统,您只要专注于您的单车应用就可以了。

要么是自动部署,要么是不用部署,总的来说就是应用层你也要少操心,这就是PaaS层的重要作用。

虽说脚本的方式能够解决自己的应用的部署问题,然而不同的环境千差万别,一个脚本往往在一个环境上运行正确,到另一个环境就不正确了。

而容器是能更好地解决这个问题。

容器是 Container,Container另一个意思是集装箱,其实容器的思想就是要变成软件交付的集装箱。集装箱的特点:一是封装,二是标准。

(图片来源于刘超的通俗云计算)

在没有集装箱的时代,假设将货物从 A运到 B,中间要经过三个码头、换三次船。每次都要将货物卸下船来,摆得七零八落,然后搬上船重新整齐摆好。因此在没有集装箱时,每次换船,船员们都要在岸上待几天才能走。

(图片来源于刘超的通俗云计算)

有了集装箱以后,所有的货物都打包在一起了,并且集装箱的尺寸全部一致,所以每次换船时,一个箱子整体搬过去就行了,小时级别就能完成,船员再也不用上岸长时间耽搁了。

这是集装箱“封装”、“标准”两大特点在生活中的应用。

(图片来源于刘超的通俗云计算)

那么容器如何对应用打包呢?还是要学习集装箱。首先要有个封闭的环境,将货物封装起来,让货物之间互不干扰、互相隔离,这样装货卸货才方便。好在 Ubuntu中的LXC技术早就能做到这一点。

封闭的环境主要使用了两种技术,一种是看起来是隔离的技术,称为 Namespace,也即每个 Namespace中的应用看到的是不同的 IP地址、用户空间、程号等。另一种是用起来是隔离的技术,称为 Cgroups,也即明明整台机器有很多的 CPU、内存,而一个应用只能用其中的一部分。

所谓的镜像,就是将你焊好集装箱的那一刻,将集装箱的状态保存下来,就像孙悟空说:“定”,集装箱里面就定在了那一刻,然后将这一刻的状态保存成一系列文件。这些文件的格式是标准的,谁看到这些文件都能还原当时定住的那个时刻。将镜像还原成运行时的过程(就是读取镜像文件,还原那个时刻的过程)就是容器运行的过程。

有了容器,使得 PaaS层对于用户自身应用的自动部署变得快速而优雅。

在PaaS层中一个复杂的通用应用就是大数据平台。大数据是如何一步一步融入云计算的呢?

1. 数据不大也包含智慧

一开始这个大数据并不大。原来才有多少数据?现在大家都去看电子书,上网看新闻了,在我们80后小时候,信息量没有那么大,也就看看书、看看报,一个星期的报纸加起来才有多少字?如果你不在一个大城市,一个普通的学校的图书馆加起来也没几个书架,是后来随着信息化的到来,信息才会越来越多。

首先我们来看一下大数据里面的数据,就分三种类型,一种叫结构化的数据,一种叫非结构化的数据,还有一种叫半结构化的数据。

结构化的数据:即有固定格式和有限长度的数据。例如填的表格就是结构化的数据,国籍:中华人民共和国,民族:汉,性别:男,这都叫结构化数据。非结构化的数据:现在非结构化的数据越来越多,就是不定长、无固定格式的数据,例如网页,有时候非常长,有时候几句话就没了;例如语音,视频都是非结构化的数据。半结构化数据:是一些XML或者HTML的格式的,不从事技术的可能不了解,但也没有关系。

其实数据本身不是有用的,必须要经过一定的处理。例如你每天跑步带个手环收集的也是数据,网上这么多网页也是数据,我们称为Data。数据本身没有什么用处,但数据里面包含一个很重要的东西,叫做信息(Information)。

数据十分杂乱,经过梳理和清洗,才能够称为信息。信息会包含很多规律,我们需要从信息中将规律总结出来,称为知识(Knowledge),而知识改变命运。信息是很多的,但有人看到了信息相当于白看,但有人就从信息中看到了电商的未来,有人看到了直播的未来,所以人家就牛了。如果你没有从信息中提取出知识,天天看朋友圈也只能在互联网滚滚大潮中做个看客。

有了知识,然后利用这些知识去应用于实战,有的人会做得非常好,这个东西叫做智慧(Intelligence)。有知识并不一定有智慧,例如好多学者很有知识,已经发生的事情可以从各个角度分析得头头是道,但一到实干就歇菜,并不能转化成为智慧。而很多的创业家之所以伟大,就是通过获得的知识应用于实践,最后做了很大的生意。

所以数据的应用分这四个步骤:数据、信息、知识、智慧。

最终的阶段是很多商家都想要的。你看我收集了这么多的数据,能不能基于这些数据来帮我做下一步的决策,改善我的产品。例如让用户看视频的时候旁边弹出广告,正好是他想买的东西;再如让用户听音乐时,另外推荐一些他非常想听的其他音乐。

用户在我的应用或者网站上随便点点鼠标,输入文字对我来说都是数据,我就是要将其中某些东西提取出来、指导实践、形成智慧,让用户陷入到我的应用里面不可自拔,上了我的网就不想离开,手不停地点、不停地买。

很多人说双十一我都想断网了,我老婆在上面不断地买买买,买了A又推荐B,老婆大人说,“哎呀,B也是我喜欢的啊,老公我要买”。你说这个程序怎么这么牛,这么有智慧,比我还了解我老婆,这件事情是怎么做到的呢?

2. 数据如何升华为智慧

数据的处理分几个步骤,完成了才最后会有智慧。

第一个步骤叫数据的收集。首先得有数据,数据的收集有两个方式:

第一个方式是拿,专业点的说法叫抓取或者爬取。例如搜索引擎就是这么做的:它把网上的所有的信息都下载到它的数据中心,然后你一搜才能搜出来。比如你去搜索的时候,结果会是一个列表,这个列表为什么会在搜索引擎的公司里面?就是因为他把数据都拿下来了,但是你一点链接,点出来这个网站就不在搜索引擎它们公司了。比如说新浪有个新闻,你拿百度搜出来,你不点的时候,那一页在百度数据中心,一点出来的网页就是在新浪的数据中心了。第二个方式是推送,有很多终端可以帮我收集数据。比如说小米手环,可以将你每天跑步的数据,心跳的数据,睡眠的数据都上传到数据中心里面。

第二个步骤是数据的传输。一般会通过队列方式进行,因为数据量实在是太大了,数据必须经过处理才会有用。可系统处理不过来,只好排好队,慢慢处理。

第三个步骤是数据的存储。现在数据就是金钱,掌握了数据就相当于掌握了钱。要不然网站怎么知道你想买什么?就是因为它有你历史的交易的数据,这个信息可不能给别人,十分宝贵,所以需要存储下来。

第四个步骤是数据的处理和分析。上面存储的数据是原始数据,原始数据多是杂乱无章的,有很多垃圾数据在里面,因而需要清洗和过滤,得到一些高质量的数据。对于高质量的数据,就可以进行分析,从而对数据进行分类,或者发现数据之间的相互关系,得到知识。

比如盛传的沃尔玛超市的啤酒和尿布的故事,就是通过对人们的购买数据进行分析,发现了男人一般买尿布的时候,会同时购买啤酒,这样就发现了啤酒和尿布之间的相互关系,获得知识,然后应用到实践中,将啤酒和尿布的柜台弄的很近,就获得了智慧。

第五个步骤是对于数据的检索和挖掘。检索就是搜索,所谓外事不决问Google,内事不决问百度。内外两大搜索引擎都是将分析后的数据放入搜索引擎,因此人们想寻找信息的时候,一搜就有了。

另外就是挖掘,仅仅搜索出来已经不能满足人们的要求了,还需要从信息中挖掘出相互的关系。比如财经搜索,当搜索某个公司股票的时候,该公司的高管是不是也应该被挖掘出来呢?如果仅仅搜索出这个公司的股票发现涨的特别好,于是你就去买了,其实其高管发了一个声明,对股票十分不利,第二天就跌了,这不坑害广大股民么?所以通过各种算法挖掘数据中的关系,形成知识库,十分重要。

3. 大数据时代,众人拾柴火焰高

当数据量很小时,很少的几台机器就能解决。慢慢的,当数据量越来越大,最牛的服务器都解决不了问题时,怎么办呢?这时就要聚合多台机器的力量,大家齐心协力一起把这个事搞定,众人拾柴火焰高。

对于数据的收集:就IoT来讲,外面部署这成千上万的检测设备,将大量的温度、湿度、监控、电力等数据统统收集上来;就互联网网页的搜索引擎来讲,需要将整个互联网所有的网页都下载下来。这显然一台机器做不到,需要多台机器组成网络爬虫系统,每台机器下载一部分,同时工作,才能在有限的时间内,将海量的网页下载完毕。

对于数据的传输:一个内存里面的队列肯定会被大量的数据挤爆掉,于是就产生了基于硬盘的分布式队列,这样队列可以多台机器同时传输,随你数据量多大,只要我的队列足够多,管道足够粗,就能够撑得住。

对于数据的存储:一台机器的文件系统肯定是放不下的,所以需要一个很大的分布式文件系统来做这件事情,把多台机器的硬盘打成一块大的文件系统。

对于数据的分析:可能需要对大量的数据做分解、统计、汇总,一台机器肯定搞不定,处理到猴年马月也分析不完。于是就有分布式计算的方法,将大量的数据分成小份,每台机器处理一小份,多台机器并行处理,很快就能算完。例如著名的Terasort对1个TB的数据排序,相当于1000G,如果单机处理,怎么也要几个小时,但并行处理209秒就完成了。

所以说什么叫做大数据?说白了就是一台机器干不完,大家一起干。可是随着数据量越来越大,很多不大的公司都需要处理相当多的数据,这些小公司没有这么多机器可怎么办呢?

4. 大数据需要云计算,云计算需要大数据

说到这里,大家想起云计算了吧。当想要干这些活时,需要很多的机器一块做,真的是想什么时候要就什么时候要,想要多少就要多少。

例如大数据分析公司的财务情况,可能一周分析一次,如果要把这一百台机器或者一千台机器都在那放着,一周用一次非常浪费。那能不能需要计算的时候,把这一千台机器拿出来;不算的时候,让这一千台机器去干别的事情?

谁能做这个事儿呢?只有云计算,可以为大数据的运算提供资源层的灵活性。而云计算也会部署大数据放到它的PaaS平台上,作为一个非常非常重要的通用应用。因为大数据平台能够使得多台机器一起干一个事儿,这个东西不是一般人能开发出来的,也不是一般人玩得转的,怎么也得雇个几十上百号人才能把这个玩起来。

所以说就像数据库一样,其实还是需要有一帮专业的人来玩这个东西。现在公有云上基本上都会有大数据的解决方案了,一个小公司需要大数据平台的时候,不需要采购一千台机器,只要到公有云上一点,这一千台机器都出来了,并且上面已经部署好了的大数据平台,只要把数据放进去算就可以了。

云计算需要大数据,大数据需要云计算,二者就这样结合了。

四、人工智能拥抱大数据

1. 机器什么时候才能懂人心

虽说有了大数据,人的欲望却不能够满足。虽说在大数据平台里面有搜索引擎这个东西,想要什么东西一搜就出来了。但也存在这样的情况:我想要的东西不会搜,表达不出来,搜索出来的又不是我想要的。

例如音乐软件推荐了一首歌,这首歌我没听过,当然不知道名字,也没法搜。但是软件推荐给我,我的确喜欢,这就是搜索做不到的事情。当人们使用这种应用时,会发现机器知道我想要什么,而不是说当我想要时,去机器里面搜索。这个机器真像我的朋友一样懂我,这就有点人工智能的意思了。

人们很早就在想这个事情了。最早的时候,人们想象,要是有一堵墙,墙后面是个机器,我给它说话,它就给我回应。如果我感觉不出它那边是人还是机器,那它就真的是一个人工智能的东西了。

怎么才能做到这一点呢?人们就想:我首先要告诉计算机人类的推理的能力。你看人重要的是什么?人和动物的区别在什么?就是能推理。要是把我这个推理的能力告诉机器,让机器根据你的提问,推理出相应的回答,这样多好?

其实目前人们慢慢地让机器能够做到一些推理了,例如证明数学公式。这是一个非常让人惊喜的一个过程,机器竟然能够证明数学公式。但慢慢又发现其实这个结果也没有那么令人惊喜。因为大家发现了一个问题:数学公式非常严谨,推理过程也非常严谨,而且数学公式很容易拿机器来进行表达,程序也相对容易表达。

然而人类的语言就没这么简单了。比如今天晚上,你和你女朋友约会,你女朋友说:如果你早来,我没来;你等着,如果我早来;你没来,你等着!这个机器就比较难理解了,但人都懂。所以你和女朋友约会,是不敢迟到的。

因此,仅仅告诉机器严格的推理是不够的,还要告诉机器一些知识。但告诉机器知识这个事情,一般人可能就做不来了。可能专家可以,比如语言领域的专家或者财经领域的专家。

语言领域和财经领域知识能不能表示成像数学公式一样稍微严格点呢?例如语言专家可能会总结出主谓宾定状补这些语法规则,主语后面一定是谓语,谓语后面一定是宾语,将这些总结出来,并严格表达出来不久行了吗?

后来发现这个不行,太难总结了,语言表达千变万化。就拿主谓宾的例子,很多时候在口语里面就省略了谓语,别人问:你谁啊?我回答:我刘超。但你不能规定在语音语义识别时,要求对着机器说标准的书面语,这样还是不够智能,就像罗永浩在一次演讲中说的那样,每次对着手机,用书面语说:请帮我呼叫某某某,这是一件很尴尬的事情。

人工智能这个阶段叫做专家系统。专家系统不易成功,一方面是知识比较难总结,另一方面总结出来的知识难以教给计算机。因为你自己还迷迷糊糊,觉得似乎有规律,就是说不出来,又怎么能够通过编程教给计算机呢?

4. 算了,教不会你自己学吧

于是人们想到:机器是和人完全不一样的物种,干脆让机器自己学习好了。

机器怎么学习呢?既然机器的统计能力这么强,基于统计学习,一定能从大量的数字中发现一定的规律。

其实在娱乐圈有很好的一个例子,可见一般:

有一位网友统计了知名歌手在大陆发行的 9 张专辑中 117 首歌曲的歌词,同一词语在一首歌出现只算一次,形容词、名词和动词的前十名如下表所示(词语后面的数字是出现的次数):

如果我们随便写一串数字,然后按照数位依次在形容词、名词和动词中取出一个词,连在一起会怎么样呢?

例如取圆周率 3.1415926,对应的词语是:坚强,路,飞,自由,雨,埋,迷惘。稍微连接和润色一下:

坚强的孩子,依然前行在路上,张开翅膀飞向自由,让雨水埋葬他的迷惘。

是不是有点感觉了?当然,真正基于统计的学习算法比这个简单的统计复杂得多。

然而统计学习比较容易理解简单的相关性:例如一个词和另一个词总是一起出现,两个词应该有关系;而无法表达复杂的相关性。并且统计方法的公式往往非常复杂,为了简化计算,常常做出各种独立性的假设,来降低公式的计算难度,然而现实生活中,具有独立性的事件是相对较少的。

5. 模拟大脑的工作方式

于是人类开始从机器的世界,反思人类的世界是怎么工作的。

人类的脑子里面不是存储着大量的规则,也不是记录着大量的统计数据,而是通过神经元的触发实现的,每个神经元有从其它神经元的输入,当接收到输入时,会产生一个输出来刺激其它神经元。于是大量的神经元相互反应,最终形成各种输出的结果。

例如当人们看到美女瞳孔会放大,绝不是大脑根据身材比例进行规则判断,也不是将人生中看过的所有的美女都统计一遍,而是神经元从视网膜触发到大脑再回到瞳孔。在这个过程中,其实很难总结出每个神经元对最终的结果起到了哪些作用,反正就是起作用了。

于是人们开始用一个数学单元模拟神经元。

这个神经元有输入,有输出,输入和输出之间通过一个公式来表示,输入根据重要程度不同(权重),影响着输出。

于是将n个神经元通过像一张神经网络一样连接在一起。n这个数字可以很大很大,所有的神经元可以分成很多列,每一列很多个排列起来。每个神经元对于输入的权重可以都不相同,从而每个神经元的公式也不相同。当人们从这张网络中输入一个东西的时候,希望输出一个对人类来讲正确的结果。

例如上面的例子,输入一个写着2的图片,输出的列表里面第二个数字最大,其实从机器来讲,它既不知道输入的这个图片写的是2,也不知道输出的这一系列数字的意义,没关系,人知道意义就可以了。正如对于神经元来说,他们既不知道视网膜看到的是美女,也不知道瞳孔放大是为了看的清楚,反正看到美女,瞳孔放大了,就可以了。

对于任何一张神经网络,谁也不敢保证输入是2,输出一定是第二个数字最大,要保证这个结果,需要训练和学习。毕竟看到美女而瞳孔放大也是人类很多年进化的结果。学习的过程就是,输入大量的图片,如果结果不是想要的结果,则进行调整。

如何调整呢?就是每个神经元的每个权重都向目标进行微调,由于神经元和权重实在是太多了,所以整张网络产生的结果很难表现出非此即彼的结果,而是向着结果微微地进步,最终能够达到目标结果。

当然,这些调整的策略还是非常有技巧的,需要算法的高手来仔细的调整。正如人类见到美女,瞳孔一开始没有放大到能看清楚,于是美女跟别人跑了,下次学习的结果是瞳孔放大一点点,而不是放大鼻孔。

听起来也没有那么有道理,但的确能做到,就是这么任性!

神经网络的普遍性定理是这样说的,假设某个人给你某种复杂奇特的函数,f(x):

不管这个函数是什么样的,总会确保有个神经网络能够对任何可能的输入x,其值f(x)(或者某个能够准确的近似)是神经网络的输出。

如果在函数代表着规律,也意味着这个规律无论多么奇妙,多么不能理解,都是能通过大量的神经元,通过大量权重的调整,表示出来的。

7. 人工智能的经济学解释

这让我想到了经济学,于是比较容易理解了。

我们把每个神经元当成社会中从事经济活动的个体。于是神经网络相当于整个经济社会,每个神经元对于社会的输入,都有权重的调整,做出相应的输出,比如工资涨了、菜价涨了、股票跌了,我应该怎么办、怎么花自己的钱。这里面没有规律么?肯定有,但是具体什么规律呢?很难说清楚。

基于专家系统的经济属于计划经济。整个经济规律的表示不希望通过每个经济个体的独立决策表现出来,而是希望通过专家的高屋建瓴和远见卓识总结出来。但专家永远不可能知道哪个城市的哪个街道缺少一个卖甜豆腐脑的。

于是专家说应该产多少钢铁、产多少馒头,往往距离人民生活的真正需求有较大的差距,就算整个计划书写个几百页,也无法表达隐藏在人民生活中的小规律。

基于统计的宏观调控就靠谱多了,每年统计局都会统计整个社会的就业率、通胀率、GDP等指标。这些指标往往代表着很多内在规律,虽然不能精确表达,但是相对靠谱。

然而基于统计的规律总结表达相对比较粗糙。比如经济学家看到这些统计数据,可以总结出长期来看房价是涨还是跌、股票长期来看是涨还是跌。例如,如果经济总体上扬,房价和股票应该都是涨的。但基于统计数据,无法总结出股票,物价的微小波动规律。

基于神经网络的微观经济学才是对整个经济规律最最准确的表达,每个人对于自己在社会中的输入进行各自的调整,并且调整同样会作为输入反馈到社会中。想象一下股市行情细微的波动曲线,正是每个独立的个体各自不断交易的结果,没有统一的规律可循。

而每个人根据整个社会的输入进行独立决策,当某些因素经过多次训练,也会形成宏观上统计性的规律,这也就是宏观经济学所能看到的。例如每次货币大量发行,最后房价都会上涨,多次训练后,人们也就都学会了。

8. 人工智能需要大数据

然而,神经网络包含这么多的节点,每个节点又包含非常多的参数,整个参数量实在是太大了,需要的计算量实在太大。但没有关系,我们有大数据平台,可以汇聚多台机器的力量一起来计算,就能在有限的时间内得到想要的结果。

人工智能可以做的事情非常多,例如可以鉴别垃圾邮件、鉴别黄色暴力文字和图片等。这也是经历了三个阶段的:

第一个阶段依赖于关键词黑白名单和过滤技术,包含哪些词就是黄色或者暴力的文字。随着这个网络语言越来越多,词也不断地变化,不断地更新这个词库就有点顾不过来。第二个阶段时,基于一些新的算法,比如说贝叶斯过滤等,你不用管贝叶斯算法是什么,但是这个名字你应该听过,这个一个基于概率的算法。第三个阶段就是基于大数据和人工智能,进行更加精准的用户画像和文本理解和图像理解。

由于人工智能算法多是依赖于大量的数据的,这些数据往往需要面向某个特定的领域(例如电商,邮箱)进行长期的积累,如果没有数据,就算有人工智能算法也白搭,所以人工智能程序很少像前面的IaaS和PaaS一样,将人工智能程序给某个客户安装一套,让客户去用。因为给某个客户单独安装一套,客户没有相关的数据做训练,结果往往是很差的。

但云计算厂商往往是积累了大量数据的,于是就在云计算厂商里面安装一套,暴露一个服务接口,比如您想鉴别一个文本是不是涉及黄色和暴力,直接用这个在线服务就可以了。这种形势的服务,在云计算里面称为软件即服务,SaaS (Software AS A Service)

于是工智能程序作为SaaS平台进入了云计算。

五、基于三者关系的美好生活

终于云计算的三兄弟凑齐了,分别是IaaS、PaaS和SaaS。所以一般在一个云计算平台上,云、大数据、人工智能都能找得到。一个大数据公司,积累了大量的数据,会使用一些人工智能的算法提供一些服务;一个人工智能公司,也不可能没有大数据平台支撑。

所以,当云计算、大数据、人工智能这样整合起来,便完成了相遇、相识、相知的过程。

}

[ 亿欧导读 ] 科技对产业的变革将会越来越明显,越来越深刻,国务院在“十三五”国家信息化规划中也提到了云计算、大数据、人工智能、区块链等新技术对产业变革的重要性。保险这一古老的行业能否借助科技的浪潮实现豹变呢?

回顾2016年,“金融科技”取代“互联网金融”被投资人和创业者反复提及,以人工智能、区块链、大数据、云计算为代表的技术正逐渐走出实验室,被运用到产业中去。保险行业作为亿欧重点关注的产业之一,在此之前亿欧曾就互联网保险发展状况发布了两篇专门报道,,本文主要就以上四点技术对保险产生的作用做一番梳理和探讨,借此窥探保险行业是如何借助科技的力量重塑业态。

本文所指保险科技(Insur Tech),是相对于金融科技(Fintech)来说的,有别于常规的“科技保险”。后者主要是保监会和科技部针对科技企业或研发机构所具有高科技、高投入、高风险、高价值特点而开设的特定保险业务,一定程度上反映了国家对于高科技企业的扶持。从2007年7月公布第一批科技保险试点城市再到2016年6月我国第一家专业科技保险公司“太平科技保险”成立,历时9年。

就在截稿前,亿欧从保监会官网获悉,2016年全行业共实现原保险保费收入3.10万亿元,同比增长27.50%。保险业资产总量15.12万亿元,较年初增长22.31%。其中,117家保险机构开展互联网保险业务,实现签单保费2347.97亿元

这是行业的一个好消息:我国保险市场继续保持强劲增长势头。

科技引领未来,历史的车轮滚滚向前,变革者也许会流血牺牲,但抱残守缺终将湮没在历史的尘埃中。从互联网金融到金融科技,越来越多的人意识到科技为金融产业变革所带来的重大意义。互联网保险作为金融创新的重要一员自然不会缺席科技带来的变革,在过去的1年,保险行业围绕人工智能、区块链、大数据、云计算等技术实实在在发生了一些事件,而不只是纸上谈兵,下面就将为大家一一介绍。

人工智能(Artificial Intelligence)英文简称AI,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

这种技术最大的意义在于它实现了人类智慧的延伸,将人从繁重的脑力劳动中解放出来,因此某种程度上可以代替人类现有的一些工作。

李开复最近在参加一期电视节目时预言称,未来10到15年90%的岗位会被人工智能替代或者部分替代。

这个言论再次将人们的视线转移到新技术出现是否会带来失业的问题上,其实大可不必担心,历史的趋势已经证明了这一点。就像蒸汽机的发明,人们的出行交通工具从马车进化到火车,轮船乃至汽车,马夫这个职业消失了,但是诞生了司机这个职业。刘强东就看得很明白,在2017年开年大会演讲中表示,未来的快递将不再需要快递员冒着雾霾去送货,而是无人车、无人机送货,快递员可以转岗到负责无人车和无人机的看护,维修等。

2016年4月,弘康人寿引入“人脸识别”技术,客户足不出户,刷刷脸就可以实现投保、核保、保全、理赔全流程服务。据悉,该技术是通过后台将用户身份证照片和公安部下的身份证认证中心照片智能比对,用此方法代替人工认证。

2016年8月,泰康在线推出保险智能机器人“TKer”,这是一款实物机器人,运用人脸识别、语音交互等技术能够实现自主投保、保单查询、业务办理、人机协同、视频宣传的功能,还能主动迎宾以及智能会话。

上述应用案例都是从提升用户体验,节省人工成本出发。

从弘康人寿推出的刷脸服务看,通过将后台数据和公安部数据库打通,从而能够获得用户真实数据,帮助客户“证明你是你”,据悉用户从投保到理赔整个流程下来花费的时间不超过30分钟。而且随着手机实名制推进,用户的个人信息变更会更容易调取,这为其它保险公司开了个好头,未来应该有更多的保险公司跟进

泰康在线是国内四家互联网保险公司之一(众安保险、泰康在线、安心保险、易安保险),并没有因为出身泰康人寿而受到传统机制的束缚,对于新技术还是比较开放的,之前其董事长汪道南也表示,“泰康在线是科技创新试验田”。其推出的人工智能机器人比弘康人寿更进一步,主要是服务线下,因此功能更加完善,兼具前台客服以及保险代理人的部分功能

尽管只是涉及弱人工智能,但这并不妨碍人工智能在保险行业进一步应用的趋势,也许有一天,每个人都有一款专属的人工智能保险管家。

日本富国生命保险公司在2017年1月正式启用IBM Watson Explorer人工智能系统,负责公司的保险理赔业务。据该公司介绍,这款人工智能系统能够通过扫描被保险人的医疗记录与其他信息来决定保险赔付金额。受伤定型、患者病史以及治疗形式都将纳入理赔金额的考量。

美国一家保险科技创业公司Insurify发布了人工智能虚拟保险代理人Evia。据了解,用户将车牌信息以照片的形式发送给Evia,就能迅速得到车险的报价信息,而不需要填入其他数据比如用户姓名、身份证等,从而保证了用户的隐私性。除此之外,还可以回答用户遇到的保险问题。

区块链(Block Chain):根据《中国区块链技术和应用发展白皮书2016》中的定义,区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。基于此它的最大的特征就是去信任、不可篡改、共识。

信任,是保险存在的基础同时也是保险行业最大的成本。在现实生活中,骗保案例时有发生。而如果能建立一个区块链联盟,将医院、保险公司、用户等多方数据共享,互通互联,将会是不错的尝试。而且区块链的智能合约能够实现自动理赔,这将打破原有的保险业态,即只有客户主动申请,经保险公司认定后才能获得赔付。个人认为最容易实现的场景就是航空延误险,因为理赔的根据就是航空延误的时间,没有过多其它条款的限制,一旦飞机延误发生,就会触发智能合约执行,用户无需申请就能获得赔付金,极大节约了保险理赔的人工成本和时间成本。

2016年3月,阳光保险推出基于区块链技术的“阳光贝”积分,与传统积分最大的不同是,积分可以流转。当用户在阳光保险积分商城用阳光币兑换商品时如果自己的阳光币不够,就可以通过好友转赠的方式凑齐积分,而且一般积分都有时效性,通过转让的方式可以最大化发挥积分的价值。

2016年8月,阳光保险与区块链数字资产管理平台“数贝荷包”联合推出“飞常惠航空意外险”微信保险卡单,这款针对高频乘机用户的保险产品保费60元,可以使用20次,当事人身故可以获得高达200万元赔偿。这款产品最大的特色是可以将电子卡单以红包的形式分享给好友,对方在出行前登记乘客和航班信息即可成为保单的受益人。

2017年1月,横琴人寿针对春节特意推出了场景化产品——“放心回家路”安全保障计划,以“红包”的形式传递爱心。据悉,这款产品运用区块链技术,通过公开记账手段和可追溯的机制,记载所有的交易记录,实现信息的透明化。

区块链是否只是停留在概念宣传上?从阳光保险和横琴人寿的先后入局来看,答案显然不是。

上述案例主要是利用区块链可追溯的特性,记录客户信息流转的全过程。

如果说阳光保险将区块链技术应用于积分只是试水的话,那么电子保险卡单的推出则是展现了其对区块链技术的态度由谨慎到认可的转变。作为在2016年12月成立的横琴人寿能够在开业不久即应用区块链技术,表现出新生派保险机构对区块链技术的态度更加开放。无论是积分,电子卡单还是“红包”都可以通过分享的形式将所属权转移到另一方,体现了共享经济的理念。

这无疑会提升用户对保险的认知和体验,同时可以帮助保险公司拓宽获客渠道,保持自身市场竞争力。不过,以上只是涉及到区块链的浅层次运用,对于如何运用分布式账本特点解决骗保,如何利用智能合约实现自动理赔这些深层次的运用还不成熟。而且技术的进步往往会面临原有体制内既得利益者的阻碍,试想一下,如果有一天,保险能够实现自动理赔,对于保险经纪/代理公司,保险公估公司来说,他们不得不重新思考自己的价值所在。

不过,众多传统保险公司的互联网进程才刚刚开始,区块链技术对于他们似乎还很遥远。

除了上述已经将区块链技术运用到保险的实际场景中,其它保险公司也在积极拥抱区块链技术。

平安集团已在集团内部成立了金融科技部门,研究区块链技术,并在2016年5月加入R3区块链联盟,而且董事长马明哲也表示,区块链是平安未来进军的的重点。

众安保险在2016年11月宣布成立众安科技,就提到了要探索包括区块链在内的新技术、新方法的研发和应用,为此还发起成立“上海区块链企业发展促进联盟”。

还有一些保险公司虽然没有对外宣布在区块链的业务进展,但也保持了极大关注,比如人保财险执行副总裁王和,曾撰文称“区块链将成为保险创新新动力,它带来的不仅仅是新技术,更有基于“底层变革”的商业模式创新与迭代。”

国内基于区块链技术的从事保险的创业公司还不是很多,或者说没被发现。而放眼海外市场,区块链和保险结合的创业公司已经跃跃欲试,比如泰国YoCoin数字货币公司的创始人近日在泰国上线了YoCoin保险平台。该平台利用区块链技术提供财务数据存储和预测服务,以及以智能合约为基础的保险和债券产品。

云计算(Cloud Computing):根据美国国家标准与技术研究院(NIST)定义:云计算是一种按使用量付费的模式,这种模式提供可用的、便捷的、按需的网络访问,进入可配置的计算资源共享池(资源包括网络,服务器,存储,应用软件,服务),这些资源能够被快速提供,只需投入很少的管理工作,或与服务供应商进行很少的交互。

云计算具有超大规模、虚拟化、高可靠性、通用性、高可伸缩性、按需服务、极其廉价等特点。

据了解,保险公司建设数据中心一次性投入高达500万元,系统维护每年也会花去100万元。传统保险公司资金实力雄厚,通常还会自建灾备中心,但是中小保险公司他们的注册资本相小,员工数量较少,难以开展较大规模的信息化基础建设。所以将基础设施架构在云上是一个值得尝试的方向。

2016年1月,安心保险上线营业,这是国内第三家互联网保险公司,据了解,安心保险将公司全业务系统搭建在腾讯“云”上,是国内首家全业务运行在“云”上的保险公司。

安心保险这种做法打破了保险行业的传统底层架构建设模式。

腾讯云用在金融业务可以使成本相比传统自建底层设施节约90%以上,所以能够大大降低企业在系统运营上的软硬件成本,这也是安心保险选择将业务放在“云”上的一个原因。除了成本方面,在业务层面,安心保险可以借助腾讯云的云安全、云处理、信息识别等核心技术,安心保险将让理赔服务变得简单快捷,实现从营销、渠道、产品乃至运营的全业务链条的互联网化。

腾讯云服务的保险公司还有众安保险、泰康人寿、泛华保险。根据保监会最新统计显示,2016年保险行业已有50余家保险机构与第三方社会化云平台合作。可以肯定的是云计算这种有效降低运营成本、促进产品创新的功能还将进一步为其它保险公司所用。

大数据(Big Data):根据麦肯锡给的定义,它是指一种规模大到在获取、存储、管理、分析方面大大超出了传统数据库软件工具能力范围的数据集合,具有海量的数据规模、快速的数据流转、多样的数据类型和价值密度低四大特征。

波士顿咨询公司在2015年发布的《互联网时代,大数据改良与改革中国保险业》报告,认为在互联网、移动、社交网络、云计算和大数据为代表的数字化技术中,大数据对保险行业的影响最具颠覆性。

保险行业是基于大数法则建立的风险管理工具,因此是对数据最敏感的行业。大数据所带来的结果是,看似毫无关系的数据,经过处理之后,都能成为保险公司提供决策的风险因子。

2016年9月,碳云智能3000万元战略投资新三板挂牌公司“般若系统”,据了解,此次战略投资主要是为了拓展碳云在保险业的数据应用能力。

2016年9月,中国汽车技术研究中心与中国保险信息技术管理有限责任公司(中国保信)共同发起成立了“汽车与保险大数据产业联盟”,旨在突破当前汽车与保险大数据产业面临的问题,推进数据开放、共享、融合,努力把联盟打造成为中国政、产、学、研、用合作多赢的产业组织。

2016年10月,复星保德信人寿与百融金服签署全面战略合作,为保险代理人提供行业大数据分析、保险消费趋势、客户投保习惯分析等公益服务。

三个案例各有特色:成立半年就获得10亿元融资的碳云智能以外部投资的方式弥补大数据短板,投资标的“般若系统”拥有汽车保险反欺诈识别发明专利,并参与发起国内首家气象指数保险公司——华科气象指数保险股份有限公司的筹建,因此在保险业大数据应用领域研发能力比较突出。

国家“十三五”规划中明确提出要将大数据作为基础性战略资源,随着我国近年来我国汽车保有量迅速扩大,我国即将迈入汽车社会,然而汽车以及车险行业还未形成标准的数据库,中国保信有保险行业的“银联”之称,行业地位不言而喻,由其发起成立联盟实至名归。

复星保德信是复星集团旗下的保险公司,是郭广昌“巴菲特梦”的其中一环,不过在国内的保费规模以及行业地位一直是处于最底层。百融金服是国内知名的大数据服务商,和银行、消费金融、保险、理财等金融机构有着广泛合作。二者的合作可以看作是中小型保险公司在市场竞争中灵活运用外部资源实现快步走的战略。不过,作为一家保险公司从长远看还是要从自身出发来建设大数据能力。

大数据技术的在保险领域的一大用处就是可以根据不同纬度挖掘用户保险需求,形成用户画像,从而定制化保险产品。而不只像传统的精算技术只在一定纬度量化风险,很难充分反映风险的复杂性。利用大数据技术的创业公司比较多,比如海绵保、保准牛、OK车险、大象保险等。

在过去的一年,许多互联网保险领域的创业公司也对金融科技助力保险创新抱着期许的态度。如小雨伞保险董事长徐瀚希望互联网保险从业者能够通过保险产品和互联网技术进行结合,运用人工智能、区块链等新技术,介入到保险产品设计、保险投保、保单管理、健康管理等方面做更多的创新,为用户提供全方面的保险保障。保险极客CEO任彬表示,“随着创业者对模式的不断确认和完善,大家会各自在自己的领域里越跑越快,中国保险行业会随着互联网和大数据的进步而发生深刻的变革”。

附:国内互联网保险创新性平台

以上案例难免挂一漏万,但人工智能、区块链、大数据、云计算无疑是保险科技的重要组成部分。这些技术的发展不是相互隔绝的,就拿区块链来说,中国工业和信息化部信息化和软件服务业司司长谢少锋认为,“区块链将为云计算、大数据、智能制造、供应链管理、数字资产等新一代信息技术的发展带来新的机遇,有能力引发新一轮的技术创业和产业革命。”

同样,这些技术对保险的影响也不会是单点作用,而是融合起来推动我国保险业进步。事实上,上海保险交易所董事长曾于瑾也在公开场合指出,保险科技体现在三个重要方向:一是数据的融合和共享,二是新型保险消费场景的运用,三是利用区块链、物联网等技术,解决困扰行业发展的道德逆选择问题。

凡来源为亿欧网的内容,其版权均属北京亿欧网盟科技有限公司所有。文章内容系作者个人观点,不代表亿欧对观点赞同或支持。

}

有了人工智能,还要大数据么?

“人工智能(AI)和先进的机器学习技术是被广泛关注的新兴技术,将在企业甚至整个行业中掀起革命浪潮。它们能够大幅度降低劳动力成本,产生意想不到的新见解,从原始数据中发现新模式,并建立预测模型。”

Gartner在2017年度10大战略技术发展趋势中陈述了上述观点,其实无需Gartner预测,AI能够带来的对人类社会的改变,众多企业、专家、IT从业人员甚至吃瓜群众都已经达成了一个共识,那就是人工智能必将给人类社会带来巨大的影响和变革。

大数据:一切进化的关键之钥 不过,有些人认为,有了人工智能,大数据技术就无关紧要了,这种观点实不可取,需要特别指出的是,人工智能是一项诞生于60年前的”古老“技术,之所以能够在今天焕发青春,主要得益于两大技术的发展,其一是算力的提升,其二是大数据技术。算力的提升使得以前无法计算或者说无法在有效时间内得出结果的计算能够实现,而大数据技术则为人工智能提供了充足的可以用来作为机器学习资源的海量数据。所以,实际上可以说,如果没有大数据技术,人工智能和机器学习就成为了无源之水,无本之木,不可能取得这样快速的发展。

同样,目前火热的物联网,这种依赖于众多终端设备数据的技术,如果缺乏大数据技术的有力支持,同样也将停滞不前,因为如何快速、有效、正确的处理和分析从各种终端设备采集到的海量信息,并通过这些信息做出正确的决策,才是物联网存在的真正意义,而这些,肯定无法离开大数据技术的支持。

未来会越来越重要的IT运维也是如此,随着IT系统日趋复杂,规模逐渐扩大,传统的依靠人工手段来进行运维的模式已经根本无法满足企业的需求,企业急需一种新的模式来进行运维,而这种新的模式即是让系统可以自动运维,自动诊断,自动恢复,而要实现这一点,需要有对以往大量运维数据的对比和分析,需要从海量的运维数据中找到成功运维的特征,这当然也需要大数据技术来实现。

而更重要的安全也是如此,今天,安全已经成为业务的推动模式,安全、运维、开发一体的DevSecOp模式也已经呼之欲出,在这样的情况下,安全的重要性已经无需置疑。然而,现在越来越多的不法分子正在通过各种方法寻找攻击的切入点,而大数据分析、人工智能等先进技术已经成为他们寻找攻击切入点的有效工具,面对这样的情况,企业唯有”以其人之道还施彼身“来应对,利用大数据和人工智能技术为企业建立一道无法逾越的安全长城。

因此,总结来说,无论是人工智能、机器学习、物联网,还是IT运维,安全,都离不开大数据技术,特别是大数据分析的支持,因此,说大数据技术是一切进化的关键,并不为过。

机器学习:与大数据分析相辅形成 而实际上,大数据和人工智能、机器学习是相辅相成、互相促进的,一方面,大数据是人工智能、机器学习的基础,反过来,人工智能也能够有效促进大数据分析更加的全面和准确。因此,在大数据分析领域,众厂商也纷纷将人工智能、机器学习技术融入到他们的产品中。例如,著名的Splunk(如果您的Splunk还不了解,请参阅文章《这回,我们来谈谈Splunk》),它们就希望通过机器学习技术进一步提升用户大数据分析的效率,为此,在他们最新发布的Splunk Enterprise 7.0、Splunk ITSI 3.0中都使用了机器学习技术,同时,Splunk还发布了机器学习工具包,帮助企业用户来预测未来IT、安全和业务的成果。 “数据是一种战略优势,企业正在寻找将数据转换为答案最快、最有效的方法。机器学习对于客户成功和Splunk的发展都非常重要。我们的无缝集成功能使每个人都能够使用机器学习,我们的客户可以更好地预测未来结果,更有效地分析他们的数据。”Splunk首席产品官Richard Campione说。

同样,在Splunk另一项重要的安全解决方案中,Splunk也将大数据、机器学习和人工智能技术融入其中,并推出了一揽子的安全解决方案。帮助用户更好的应对未来的安全威胁。 而通过这些解决方案,Splunk帮助世界五大机场之一的迪拜机场能耗降低20%,每年仅在能源方面就节省2500万美元。同时,让旅客在五分钟或更短时间内就能够通过机场安检,让15万条传送带传送,每年1.5亿件行李的行李系统运行的井井有条。让机场可以提前四小时预测哪里会出现瓶颈问题。让未授权的WiFi访问点一经发现就可以立即被消除。

Splunk公司北亚区总经理戴健庆表示,与传统关系型据数据库在处理数据时,需要先为数据建模,然后把数据导入数据库进行处理,基于数据建模来分析未来可能的问题不同,Splunk是预先把未经筛选的全部非结构化的数据放入系统中,当有需要的时候再根据实际的情况,进行相应的处理和分析,这样就不需像传统数据库那样需要首先建模才能进行数据分析,而基于这样的特殊架构,在大数据分析领域,Splunk鲜有对手,Splunk目前最重要的工作是尽快帮助企业使用Splunk的最新技术助推他们的业务应用,从而使用户能够获得更大的价值。

}

我要回帖

更多关于 大数据云计算人工智能 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信