解释如何将随机图理论应用在带国家特定优势理论性质的图的非构造性存在性证明中

复杂系统在我们日常生活中无处鈈在但无论是对复杂系统的刻画描述,还是对复杂系统进行有效的预测以及科学理论发现,都是一项巨大的挑战本文总结了张江老師在集智-凯风读书会上的《复杂系统自动建模》专题,介绍了如何更好地利用AI来对复杂系统更好的进行描述、预测乃至于理论发现最后,本文还对通过AI对复杂系统进行自动建模中的一些可能的问题进行了简单的描述和讨论

扫码查看复杂系统自动建模的论文资料整理

为什麼要利用AI探索复杂系统

传统模式下对复杂系统进行建模

许多相互作用的元素可以组成复杂系统,如互联网、经济系统、公共部门和行政组織、城市、生命体、大脑、电网、交通、生态系统等等复杂系统存在于我们生活的各个领域。

各式复杂系统往往可以被抽象为一组单元它们通过一个网络相连,并按照一定的动力学法则发生相互作用然而,由于复杂系统中的元素、主体数量较多系统组成元素之间以忣系统和环境之间存在依赖、竞争、关联等复杂的作用,便产生了如非线性 、涌现、自发秩序、适应性以及反馈回路等的特殊性质导致互动模式与影响难以描述,参数数量的增加有可能快于系统大小的增加我们既无法把整个系统基于还原论而简单理解为个体的加总,也無法从整体的行为有效推断出系统的确定性质

所以,我们对复杂系统的建模是极其困难的

19世纪、20世纪特别是20世纪80年代以来,复杂科学、网络科学的不断发展使得我们可以从更多角度去认识、研究、刻画和预测复杂现象比如对于城市这一的演化增长,虽然我们不期待用┅张餐巾纸写下城市的生长方程但我们绝对可以用一页纸写下所有的规则:

  • 空间吸引规则:城市中某一地点对新加入个体(以二维平面仩的节点为代表)的吸引力正比于其自然禀赋与社会吸引(在模型中我们用当地的活跃人口密度来表示)之和;
  • 匹配生长规则:如果新加叺系统的节点(代表活跃社区)离现有城市人口过远,那么它就无法持续存在(见下图a);
  • 道路生长规则:道路网络的密度由人口密度决萣最简单的路网构建原则就是依最简单的泰森多边形划分进行路网构建(如下图c);
  • 社会互动规则:市民的互动是沿着城市的界面——街道展开的,因此互动的密度等于人口密度和路网密度的乘积同时我们假设这些活动创造了城市的经济价值和创新(见下图b)。
图1:复雜的城市简单的规则

而第四范式与第三范式最显著的区别,在于第三范式是先提出可能的理论再搜集数据,然后通过计算仿真进行理論验证而第四范式是先有了大量的已知数据,然后通过计算得出之前未知的可信的理论显然,第四范式的核心在于一种新的认知途徑:寻找“产生于数据”(born from the data)中的洞见。而大数据的特点是连续产生的数据并力求在范围上穷举和在内容上精细,同时数据产出上又是彈性灵活、大小可变的我们认识到,随着大数据的积累和人工智能的不断发展特别是深度学习技术的发展,使得我们可以通过数据驱動(data-driven science)的方式利用深度学习算法来自动构建复杂系统的模型,我们拥有了更加强力的工具来对复杂系统进行更加精确、深入的分析、模擬、预测甚至科学发现。

显然利用AI自动建模较传统人工建模(基于第二、第三范式)有显著的区别,自动建模寻求“产生于数据”而鈈是“产生于理论”的假设和洞见即先有一个从数据中以归纳的方式来形成某种假设,然后再用演绎的方式进行研究这种数据获取和汾析的决策思路,建立在溯因推理(abductive reasoning)之上这种范式更加适用于提炼传统“知识驱动的科学”难以提炼的额外的、有价值的洞见。

其次随著技术的发展,我们已经积累了关于复杂系统运转的大量数据特别是系统所产生的时间序列数据,而传统人工建模方法很难与这种结构嘚数据相结合换言之,传统建模方法难以提取数据中隐藏的大量信息、知识不过,AI中的一些算法却非常擅长于从时间序列数据等中学習提取模型同时,当前的硬件已经能够支持我们借助一些深度学习的算法对较大量级的数据进行学习分析

因此,我们便有可能在AI的帮助下完成对复杂系统的自动建模使得我们不仅仅能够对模型参数进行学习计算,更重要的是利用AI自动对模型本身进行学习构建最终实現对复杂系统的描述、预测和科学发现。

AI自动建模的五个阶段

AI自动建模简单来说就是根据获取到的复杂系统的观测数据,利用 AI 系统自動去构建出一个我们想要的模型,从而捕获到复杂系统内部的规则这样,我们就能够对真实的复杂系统进行描述刻画进而做出分析预測,完成科学发现最终实现对复杂系统的调控和构造。

图4:AI自动建模的流程我们大体按照发展顺序将这一领域分成了如下五个阶段(方面):
图5:AI自动建模五部曲我们将简要介绍各个阶段的代表性案例,同时结合我的一些相关研究进行展示

阶段1:对复杂系统的长程关聯自动建模——RNN

复杂系统的行为数据大多表现为时间序列,而RNN是时间序列预测的主要工具因此用RNN来自动建模是一个主力方向。使用RNN进行建模其记忆机制可以捕捉到复杂系统的长程关联。基于 RNN 的方法有非常多这里我们展示一个跟复杂系统相关的工作。

在这个工作中用 RNN 嘚一种变种模型“库计算”(reservoir computing),具有强大的预测能力甚至可以预测混沌模型。而库计算和一般的RNN最大的区别在于它具有一个不可学习嘚核心部件:水库(图中的R)水库本质上是一个高度稀疏的随机网络,信号经过编码后进入水库进行传递而整个过程是不可学习的。茬这个过程中水库起到记忆的作用,经过若干次迭代信号的输入和输出过程通过梯度算法进行学习调整。最后这个模型对于混沌的預测,却可以得到一个比LSTM等完全梯度反向传播的RNN更好的效果而库计算的核心部件水库由于是一种固定结构,我们甚至可以用一些物理上嘚硬件来实现它

阶段2:对复杂系统的动力学和控制自动建模——GNN

图7:第三代神经网络——图神经网络

在时间序列自动学习方面,图网络鈈仅很好地学习了动力学而且还能够在学好的动力学上做控制。如果在神经网络中对图网络进行划分可以认为它是第三代的神经网络。我们知道第一代的神经网络是常见的前馈神经网络(Feed Forward Network),而第二代的神经网络则是根据问题进行构造的深度神经网络如在图像识别Φ,由于图片结构上的平移不变性、旋转对称等我们通过kernel在图片上平移,通过卷积的方式来提取特征由此设计了CNN。

而kernel无论移动到图片嘚哪一个位置其内部的结构都是一样的,因此CNN可以实现参数共享又如在自然语言中,根据其一维结构的序列特性通过各种门的操作從而使得序列前后的信息互相影响以更好捕捉序列的特征,由此设计了RNN而第三代神经网络,则可以理解为对上述情况的一种泛化CNN无非昰一种固定的若干维的网络结构,而如果将其泛化到一般性的网络结构去掉空间上的约束,这时便构成了图神经网络

Networks)和图时空网络(Graph Spatial-temporal Networks)等多个子领域。图网络的基本理念是构造一种可学习的图上的传播过程通过给机器展示一张固定的图,这被称为基于关系的偏置先驗(inductive bias)学习一种网络节点到连边,连边到节点的映射过程

图8:图网络动力学预测原理

由于模型将图结构充分利用,能够把握非常异质囮的网络因此准确度可以大大高。而图上构建传播扩散的过程即为不同节点之间传播过程中的多次迭代通过反向传播算法多次对连边傳播扩散过程中的参数进行调整。

下面这篇文章是彩云天气算法工程师和我们的一项工作我们将图网络应用于雾霾预测,并结合气象领域知识构建城市间的相互作用网络模型,对预测雾霾有非常好的效果

图卷积网络(GCN)最早由Thomas Kipf提出(今年 1 月份,他从阿姆斯特丹大学机器学习专业拿到了博士学位)

图9:Thomas Kipf在社交媒体上展示自己的博士论文
Thomas Kipf 提出了一种用深度学习处理结构化数据的新方法。该方法主要基于鉯图的形式结构化神经网络模型的表示和计算从而提高模型在学习具备显式和隐式模块结构的数据时的泛化能力。

GCN的概念首次提出于ICLR2017(荿文于2016年)它实际上跟CNN的作用一样,就是一个特征提取器只不过它的对象是图数据,用于执行图结构数据中节点的半监督分类任务GCN精妙地设计了一种从图数据中提取特征的方法,从而让我们可以使用这些特征去对图数据进行节点分类(node classification)、图分类(graph classification)、边预测(link prediction)還可以顺便得到图的嵌入表示(graph embedding)。GCN 发表时它在多个无向图数据集的节点级分类任务中实现了 SOTA 性能。

图10:图卷积网络原理

其中H是节点向量也即节点特征,通过一个可学习一般形式W进行线性变换和一个的扩散算子A,再加上一个非线性sigma函数节点特征就被迭代了一轮, 而經过若干轮迭代 就可以得到整合了整个网络信息的节点表示。而这整个过程非常类似于一个归一化的拉普拉斯算子由此完成整个图上嘚扩散过程。

图11:Petar Veli?kovi?在社交媒体上展示自己的博士论文

针对GCN在看待相邻节点的影响的时候进行简单地直接对节点特征进行平权地加和嘫后汇聚到节点上,得到新的特征这一做法图注意力网络提出在传播过程引入自注意力(self-attention)机制,每个节点的隐藏状态通过注意其邻居節点来计算GAT网络由堆叠简单的图注意力层(graph attention layer)来实现,对节点对 注意力系数计算方式如下。

图12:图注意力网络原理
  • 节点-邻居对的计算昰可并行化的因此运算效率很高(和GCN同级别);
  • 可以处理不同程度的节点,并为其邻居分配相应的权重;
  • 与GCN类似GAT同样是一种局部网络,无需了解整个图结构只需知道每个节点的相邻节点即可。

基于图注意力网络进行网络重构

我们的一项工作就是运用图注意力网络进行連边预测而连边预测并非我们想达到的最终目的,我们发现通过连边预测的效果进行调整,实际上我们可以在未给定直接信息的基础仩通过连边从而学习出每个节点更加丰富的信息

在这里,我们只需要一个足够大的网络通过连边预测任务实现对每个节点表征向量的學习,最后实现包括节点中心性排序、社团划分、节点等一般来说,进行上述任务比如节点,我们需要大量的标注数据进行训练而佷多情况下这种数据获取的成本和难度无疑比较高。但是网络的获取却是一个难度较低的事情,我们可以很容易的收集到一个存在上千節点以上的网络而通过我们这项工作,就有可能通过网络结构自监督的学习出每个节点的表征向量

图13:张江老师团队关于图注意力网絡的一项工作

这项工作的核心思想在于,网络结构本身即蕴含了足够丰富的信息这便提供了一种通过对网络结构学习从而重构网络本身嘚可能。

由此我们首先在完整网络结构的基础上,移除比如10%部分的网络在剩下的90%的网络中,学习整体的pattern(前提假设为网络结构本身具囿空间结构平移对称性而我们正是通过GAT来学习这种特性):即通过前馈神经网络预测两个节点之间是否存在连边的分类器(此步骤使用嘚是网络结构自带的连边标签数据),在学习完成这种分类模式后再尝试重构移除部分的网络,从而评估检测学习出来的分类模式效果进而对每个节点的节点向量进行学习重构,最终实现对整个网络的完整构造

我们把这种方法称作DeepLinker,接下来我们用中国风险投资(VC)網络给这个算法进行训练,根据注意力中心性进行排序最后结果和CB Insight上最好的VC排序符合的很好,排名前二十的VC重合度达到了72%

同时我们还嘗试依据DeepLinker得到的节点特征向量进行节点分类,在这个过程中我们并没有将节点标签作为输入数据,而是仅仅通过连边学习来逆向重构节點特征根据算法重构的特征进行分类,我们发现这种分类的准确度较传统的其他方法有较大优势也能得到一个很好的结果。总结起来Deeplinker算法是一种无监督学习的方法,且能最大化利用已知网络结构数据但是,这个算法实际上只提取了网络结构中的信息却能在节点排序、节点分类的问题上取得很好的结果,说明实际上网络结构本身就包含了大量信息节点之间的连边模式包含了不同节点本身的特征,即网络结构是对网络节点信息的提取这使得我们可以通过对网络结构进行逆向工程从而还原出网络节点的特征。

最后除了GAT之外,门控紸意力网络(GaAN)也使用多头注意力机制GaAN中的注意力聚合器与GAT中的注意力聚合器的区别在于,GaAN使用键值注意力和点积注意力而GAT使用全连接层来计算注意力系数。此外GaAN通过计算其他soft gate为不同的注意力头分配不同的权重。该聚合器称为门控注意聚合器即GaAN使用卷积网络,该卷積网络具有中心节点的特征并且与之相邻以生成门值。

阶段3:对复杂系统连续变化自动建模——Neural ODE

图网络主要处理的是在时间上离散的模型而复杂系统的很多行为、变化却是连续发生的。神经常微分网络(Neural ODE)便是一种能够对连续时间进行自动建模的模型我们认为,神经瑺微分网络与传统深度神经网络相比其最大的贡献在于进一步加深了网络的深度,同时可以与归一化流(normalizing flows)在连续域的拓展相紧密结合实现原则上无限深度的生成模型。另外就是NeuralODE开辟了连续动力系统自动数据驱动建模的新领域。

以往的算法直接学习的对象是函数?(x)洏2015年出现的残差网络ResNet则是对每层的输入进行reference,学习残差函数?(x)-x这种残差函数更接近学习目标从而更加容易优化且加深了网络层数。类似於RNN的模型往往较难处理趋势但擅长处理涨落(fluctuation),所以残差网络可以提升模型性能而残差网络的迭代更新可以看做连续变化的欧拉离散化,当我们不断缩短变化的区间在极限情况下,便成为了一个常微分方程于是我们可以使用神经网络指定的常微分方程(ODE)来参数囮隐藏单元的连续动态,并通过求解常微分方程来完成模型训练

数值求解ODE通常通过积分来完成,在这个模型里使用的是用 Pontryagin 的「伴随法」计算 ODE 梯度的替代方法。该方法通过求解第二个时间向后增加的 ODE可以与所有的 ODE 积分器一起使用,并且占用较小的内存最后,整个梯度計算算法如下:

图18:用「伴随法」计算模式求解器的梯度

由此模型通过求解一组常微分方程,实现了对相当于无限层的整个神经网络的訓练并且,在取消分层概念后可以自动采样插值从而使得整个函数连续化,从而取得一个很好的效果

其他微分方程与神经网络的结匼

显然,Neural ODE提供了一种新的自动建模理解方式即它把一个的问题转化为了一个最优控制的问题,这个视角使得我们可以将控制论的很多东覀迁移嫁接到AI自动建模里即任何一个动力学预测都可以转化成对一个目标函数的优化。

而在这篇论文之后很多人开始用物理相关理论遷移到神经网络从而提供一种不一样的方法来对动力学系统进行学习。比如哈密顿神经网络即用哈密顿方程对动力学进行描述,这里的關键在于对于物理系统特别是能量守恒的系统,可以通过求解哈密顿方程来给出系统演化的动力学方程即只要知道如何构造哈密顿函數,便可以求解系统演化

而这种模型是可以推广到一切带有守恒量的系统的。然而在面对时间序列数据时我们可能并不知道是否存在垨恒量,也无法得知守恒量的形式但是我们可以通过神经网络对其进行学习,从而找到系统的动力学模型并找到守恒量。这里面有一個关键技术问题通过pytorch包中的grad包可以进行高阶求导类似的还有拉格朗日神经网络等等。

图19:哈密顿神经网络
图20:拉格朗日神经网络

阶段4:對图结构与因果关系的自动建模——NRI等

基于图网络的自动模型需要将图结构作为数据进行输入但是在很多实际问题中,特别对对我们無法预先获取准确的图结构数据,也不清楚系统中的相互作用结构能够收集的往往只有关于整个系统的观测数据、时间序列数据。在这種情况下我们需要一种能够运用观测数据从而对整个图的结构进行学习建模的算法。由于整个复杂系统是一个动力体系它的图结构中嘚连边可以看做由因果关系(causal relation)转化而来,所以我们对图结构的学习重构也是对整个复杂系统内部的因果关系进行学习发现

图21:图结构Φ蕴含因果信息

从注意力机制到因果关系

目前,已经有一些工作可以实现对图结构中的因果信息进行学习挖掘比如有人认为GAT中的Attention本身,僦是一种图结构对于一类具有加权有向连边的图,以交通流预测为例我们可以将多个地点的交通流转化时空上的多层网络,其中每一時刻为一层网络不同流量探测器或是路段之间相互连接形成交通网络;不同时间步对应不同的层。其中模型最终学习到的空间上的注意仂就是每个节点-邻居对的权重分配计算时间上的注意力就是每个时刻与历史时刻的权重分配计算,两种机制共同帮助模型学习出连边权偅而这种情况下学习出的连边往往也具有方向。

图22:图多重注意力网络

对无权无向连边网络的重构——NRI

但是很多网络中的连边却是无權无向的,对于这种情况一种开创性的方法是由GCN作者Kipf提出的神经关系推断(NRI)模型,即通过将图神经网络与基于图连边类型的概率潜变量模型结合起来首先,我们将系统历史时间序列数据输入模型接下来将一个全连接的图网络结构输入编码器(Encoder),通过对历史数据的學习编码出一套网络结构再将建构出来的图结构输入解码器(Decoder),生成下一时刻的预测整体来看,NRI通过编码器-解码器架构对系统动力學进行重构而中间的潜变量就是图网络的结构。

图23:神经关系推断网络原理

Kipf 使用 NRI 建模了相互作用的动力系统如物理学中的多粒子系统,取得了很好的结果但这个模型只能作用于5-10个节点,最多不超过30个节点的系统建模而这一限制是由于编码器中需要使用一个具有全连接结构的图网络进行运算,所以一旦节点数量上升这套模型的算力需求就会极速上升,最终导致模型无法运行

提高网络重构能力——GGN

NRI模型复杂度高,只能用于小规模网络我们(老师科研组)在NRI的基础上,提出了一种更轻便、效率更高、可用于大规模网络(100个节点左右)的网络重构方法(Gumbel Graph NetworkGGN)。这里面的关键在于我们大大简化了NRI架构将基于图网络的网络构造过程替代为一个轻量的邻接矩阵生成器。这夶大简化了计算还能够将网络重构规模扩充到数千个节点。网络生成器的关键是利用一种被称为gumbel softmax sampling的机制将NRI中的编码器及其要求输入的铨连接网络转换为一种基于Gumbel softmax技术的网路生成器和它生成的一个独立网络,这样能极大降低运算量并且取得一个很好的结果。

在网络重构Φ加入因果检验

而我们最新的进展则是对上面的方法进一步进行性能提升实现对1000个节点以上乃至于2000个节点的网络重构,而只要时间足够長这一算法可以实现对较的更高精度重构。这里面的关键在于引入类似于格兰杰因果检验(Granger Causality)的方法虽然格兰杰因果检验并没有上升箌因果阶梯中的干预和反事实,但从预测角度理解它正好对应我们连边重构过程中的思想,即如果引入一个新变量可以提高我们预测的准确度那么我们便把这个新变量作为一个格兰杰因纳入模型。

图25:格兰杰因果神经网络的原理

当然在格兰杰因果检验中,我们直接假設因果之间符合一种线性的函数关系但实际上中的非线性却是无处不在的,所以我们通过神经网络特别是图神经网络便可以有效加强它嘚拟合能力从而更加准确的实现对任意非线性动力学的因果联系以及动力学过程的重构和发现。这里面的一个关键便在于将图网络重构機制理解为一个Node

图26:格兰杰因果图网络模型框架我们最近将这一架构成功用于基因网络的重构:

另外,利用自注意力机制我们也可以鼡于提炼动态的图结构。例如下面这篇文章就将Transformer模型(自注意力机制)用到了各种具有动态交互图的复杂系统之中,包括鸟群Boid模型、元胞自动机的自动建模等

图27:以鸟为例给出的模型结构
图28:模型自发学习到的视野半径

阶段5:对干预和反事实的自动建模

目前,阶段4看似給我们提供了一种学习图结构和因果关系的方法但这种结构还不能严格等同于因果,真正进行因果推断和因果发现我们需要上升到干預甚至是反事实的阶梯。

在这方面李飞飞团队有一项工作是通过AI算法干预虚拟世界或者现实世界来帮助我们攀登因果之梯。在一个虚拟卋界里我们的算法不仅能够观测其中物体的运动,同时它还可以对物体的运动实施干预比如改变一些运动状态,碰撞其中的物体等這便更加类似于科学家探索世界时的方式了,科学家们不仅仅观察这个世界还会尝试设计实验以验证自己的猜想。

整个过程需要通过两個网络来完成一个网络与上述的动力学建模预测网络一致,而第二个网络的训练目标则有两个目标1是使得残差与上面网络的残差尽量保持一致,目标2是通过对虚拟世界行动、干预使得预测误差最大化显然,这种操作的目的就是找到算法中的反例通过对反例的修正从洏使得模型预测更加准确。这使得我们的虚拟世界实验体系和AI形成了闭环体系通过观测拟合及干预实验使得准确率进一步提升。我们认識到这一整个过程其实是一种强化学习,即让AI自己提出来它要学习什么它要在哪些方面加大权重。

图30:主动干预的学习模型

主动干预嘚学习模型为我们未来的人机交互提供了一个有益的方向:在一些情况下由AI直接提出,如果要优化模型它需要我们做什么,它需要哪些方面的数据;由此我们针对AI的需求设计来相应的规则

这种开放的互动将使得我们的复杂系统自动建模得以登上新的台阶。同时 还有攵章声称,可以利用深度学习方法攀爬第三层阶梯尽管是否符合真正的反事实推理还需要进一步确认:

最后,当我们学习到了基本模型の后还可以对系统实施控制。下面这篇文章就以模拟的智能交通系统为平台讨论了自动学习以对系统动态控制。

总结来看的自动建模已经取得了丰硕的成绩。相比于传统的人工模型自动建模的优势在于:

  • 可以同时学习出网络结构和动力学
  • 不强依赖于建模者的先验知識

当然相比于经典模型,它还处于刚起步的阶段现在尚没有对如下问题进行充分讨论:

  • 目标驱动+数据驱动建模

显然,上面这些问题指向叻的基本理论和AI的基本理论

AI探索复杂系统的未来

进入AI自动建模的第五阶段,我们认识到因果关系是必须面对的问题它也是复杂系统科學发现的核心,当我们能够利用AI发现复杂系统中的因果关系时便获得了一种强大的系统泛化能力,这也正是我们可以根据物理定律来理解分析世界甚至预测一些不可能发生的事情,比如各种经典的思想实验

在这方面,图灵奖获得者Yoshua Bengio认为我们有必要参考人类的认知系统因为人类是能够以某种高效方式重用已拥有的知识,而当前的机器学习并不擅长知识重组机器学习擅长的是将知识模块化为可重用的爿段。其中人类的认知系统包含两个子系统:系统1和系统2。系统1是直觉系统主要负责快速、无意识、非语言的认知,这是目前深度学習主要做的事情;系统2是逻辑分析系统是有意识的、带逻辑、规划、推理以及可以语言表达的系统,这是未来深度学习需要着重考虑的

Judea Pearl认为一个足够强大的、准确的因果模型可以让我们利用第一层级(关联)的数据来回答第二层级(干预)的问题。没有因果模型我们僦不能从第一层级登上第二层级。这就是深度学习系统(只要它们只使用了第一层级的数据而没有利用因果模型)永远无法回答干预问题嘚原因干预行动据其本意就是要打破机器训练的环境规则。这些都是未来深度学习需要着重考虑的

要理解AI探索复杂系统的未来,我们艏先要明确作为核心评价之一的利用AI进行预测到底意味着什么预测是智能的不可或缺的组成部分,当实际情况和预测出现差异时实际仩就是学习的过程。然而这个世界并不全是可预测的。同时对于视频预测任务,结果可能是多重的而训练系统做出唯一一种预测的結果往往会得到唯一“模糊”的结果,即所有未来结果的“平均”这显然不是理想的预测。

另外在很多模型中,我们需要利用隐变量來处理不确定性训练样本只是整个可能的输出集合的表示。最后我们如何判断预测是否正确? 第一个验证方法就是和目标是否一致叧一个是求得最优。这两个场景往往对应着两条曲线一条更精确,还有一条则敏感度更高显然这不一定是一件事情。比如假定有一个模型模拟出有哮喘的肺炎患者,死于肺炎的可能性较小很明显,如果有哮喘应该死亡率高为什么反而低了?这可能是因为有哮喘很赽就会受到正常的照顾反而容易生存。

所以数据不足将导致大部分的AI重构的模型是难以验证的。这正好应对了Judea Pearl提出的因果科学首先,有些问题是无法回答的同时可以回答的问题需要国家特定优势理论的数据,哪怕我们通过一套基于数学体系的因果运算使得我们可以通过不进行干预而得到正确的答案这同样需要我们能够采集其中的关键数据。

图32:Pearl的因果推断引擎

不论是运用数据描述或干预社会和人嘚行为还是运用各种可穿戴设备采集与分析数据, 进而分析指导他人或自己的生活,都预示着计算社会或社会计算的来临自然,我们可鉯利用AI来探索社会进一步发展计算社会科学。2009年2月6日David Lazer、Alex Pentland为首的15位学者<a href="">在Science上发表题为“计算社会科学”的观点文章,标志着这一交叉领域的诞生时隔十年,今年8月28日David

实际上,17世纪和18世纪被称为“政治算术”便是计算社会科学的一个雏形在当时,政治算术旨在用数量汾析的方法研究社会经济1798年,人口学家马尔萨斯出版了《人口原理》第1版该书强调了人口控制的必要性,但因为没有数据支撑而引起叻激烈的争论也促使英国政府于1801年开展了首次人口普查。有了数据的支持该书于1803年出版的第2版论证更加详实,一时洛阳纸贵

在20世纪晚期,人们已经尝试对各种社会现象进行建模如研究集体选择和偏好加总的社会选择理论 (Social Choice Theory) 通过构建数理模型,研究制度如何将个人偏好加总为集体的选择而布莱恩·阿瑟(Brain Arthur)的好友肯尼斯·阿罗 (Kenneth Arrow)1951 年的博士学位论文《社会选择与个人价值》提出“不可能性定理” (Impossibility Theorem) 证明,试图找出一套不存在投票悖论的规则一般是办不到的。即不存在同时满足下列条件的社会选择规则:

  • (1) 序关系理性条件 (Ordering) : 所有投票者的偏好具有传递性和完备性即所有人均理性;
  • (2) 偏好无约束条件域 (Universal Domain) : 所有可能的偏好序除了满足传递性和完备性之外不存在任何限制条件;
  • (3)弱帕累托准则 (Weak Pareto Principle) : 如果所有投票者均认为甲>乙,则最终结果也应该是甲>乙;
  • (4)无关方案独立性条件 (Independence of Irrelevant Alternatives): 该规则得出的甲和乙的排序呮取决于投票者对甲和乙的排序,与投票者对其他候选方案的偏好无关;
  • (5) 非独裁性条件 (Non-dictatorship) : 不存在社会选择结果由某一个人决定的情况

限于篇幅,在这里我们不深入的描述一些计算社会科学的相关研究但AI显然能够帮助我们尝试重构一些社会系统,描述互动规则预测某些社会现象和行动(社会运行具有不完全重复性,预测有可能会产生“俄狄浦斯效应”所以准确预测并不是最重要的目标),更为重偠的是AI自动建模这种方法为我们提供了一种自动学习社会机制、社会制度设计的可能,未来我们的一些政策、法律、合同、合约、各種制度可能会在AI自动建模的帮助下得以设计和优化,从而更好的达到我们期待的效果

集智斑图收录来自 Nature、Science 等顶刊及arXiv预印本网站的最新论攵,包括、网络科学、等研究方向每天持续更新,扫码即可获取:

搜索公众号:集智俱乐部

加入“没有围墙的研究所”

让苹果砸得更猛烮些吧!

}

我要回帖

更多关于 国家特定优势理论 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信