不通人性的机器是记叙文说明文议论文还是议论文

分享本文到:
在微信上关注24楼影院
movie24luo
图片说明...日,在美国纽约的拉瓜迪亚机场,机长切斯利&萨利&萨伦伯格(左)和副驾驶员杰弗里&斯基尔斯在驾驶员座舱讨论飞行计划。&哈德逊河奇迹&两名飞行员&&机长萨伦伯格和副驾驶员斯基尔斯当日再次走到一起,执行航班飞行任务,受到乘客欢迎。(新华社/图)
(本文首发于日《南方周末》)
人不可能像机器一样毫无感情地作出最理性的选择,而是需要时间进行反应、思考、判断
一架满载乘客的飞机从纽约起飞后遭遇鸟群撞击,两台引擎全部失灵,英雄机长奇迹般地实现了水上安全迫降。这是去年底上映的电影《萨利机长》讲述的真实故事。不过,迫降成功只是故事的开始&&其后,萨利机长接受了航空安全部门的轮番调查和盘问,他被质疑:为什么不返航拉瓜迪亚机场,而要冒险迫降?也许机长并不是英雄,而是拿全体乘客性命开玩笑的莽夫?
在听证会上,航空安全部门展示了模拟数据。在先进技术的支持下,机器完美地还原了当天飞机遭遇鸟群撞击之后的高度、速度、角度等数据,以及天气、风向等外部环境。模拟结果表明:这架飞机完全可以成功返航,在原机场着陆。
眼看萨利机长就要声名扫地,这时他指出了一个关键因素:机器可以完美地模拟客观数据,却没有考虑到,当时驾驶飞机的是活生生的人。人不可能像机器一样毫无感情地作出最理性的选择,而是需要时间进行反应、思考、判断。
果然,当机器模拟将人的反应时间考虑进去之后,飞机便无法再成功着陆机场,水上迫降成为唯一的选择。
在不通人性的机器面前,英雄机长的命运险些被毁掉。其实,这个世界上还有千千万万小人物,也因为机器不懂人性、不具备人文关怀,而生活在糟糕的处境之中。
这类小人物的最典型案例,就是美国不少快餐连锁和大型超市的工作人员。他们大多是按小时数拿薪水的合同工,收入本就微薄。近几年,企业大规模采用机器来进行排班,让他们受到进一步的剥削。
这种排班的核心是基于顾客流量安排上岗员工数。其实,超市和快餐店本来就会进行这种&科学排班&:周二上午人流少,少安排人上岗;周五晚上人流多,全员上岗。不过,新的数据技术让这种方法的复杂性达到了前所未有的程度:比如,下雨时,人们可能会更多走进咖啡店,所以这时要多安排人手;某个晚上附近的体育场有大型赛事,可能会给快餐店带来一大批深夜客流;甚至,根据社交媒体上提及某一产品的热度,来预测门店的人流&&这一切都让人流预测和排班安排达到了前所未有的科学化程度,但它却给店里的打工者带来了灾难性的后果。
为什么会这样?首先,这种复杂的预测方式,往往需要利用非常新的数据(比如天气预测、社交媒体热度),因此很多时候只能提前一两天完成预测。这也就意味着,员工的排班表不是一个月前就安排好了,而是提前一两天才能得到,而且永远处于不可预测的变动之中&&因为数据是在不断变动的。这也就意味着这些打工者永远处于不确定性之中,可能随时被叫去工作,无法掌控自己的时间,这对需要照顾家庭的人来说尤为不便。
其次,此前,超市和快餐店的打工者们还能享受一些间歇的清闲,不至于每一分钟都在高压之下。但是现在,拜算法所赐,他们基本上每一分钟都要处于紧绷的状态,因为机器算法的终极目标就是最大化每一位员工在岗时的工作投入。这对于企业盈利的目标而言自然是合理的,但它却没有考虑到员工作为活生生的人在这种制度下所受到的巨大压力。
此外,机器还会自动完成一些奇葩的排班方式:比如,晚上值最后一班岗,工作到11点关店,第二天一早又要上最早一班,凌晨4点就要起来去开店。这种情况一度非常普遍,以至于人们发明了一个词:clopening,也即关门(closing)和开门(opening)的合体。有这种排班方式,并不是因为机器要有意为难这些打工者,而是因为在机器的算法中,并没有&人类需要充足睡眠时间&这样的设定。不需要睡眠的机器,理所当然地认为人类也是一样的金刚不坏之身。
数学家Cathy O'Neil在去年出版的《数学杀伤性武器》一书中讲述了不通人性的机器剥削底层打工者的故事。她提醒我们:机器和算法的表现,最终体现的其实是制造机器、设计算法的人的意志。如果设计算法的人不考虑人性的因素,那么机器是不会自动考虑人性的。从这个意义上说,机器不通人性并不可怕,只要制造机器、设计算法的人多一些对人性的考虑和关怀,比如禁止连续排最晚班和最早班、要求提前一周定下排班表等,事情就不会变得那么糟糕,就像在萨利机长的听证中加入那关键性的35秒一样。
(作者为传播学博士候选人)
上一页1下一页
点击阅读更多内容
有了大数据基础之上的人工智能,有了国家治理领域的“阿尔法狗”,就可以用人工智能和人之间的制...
随着智能机器变得越来越自动化和普及,我们更应该担心人为错误导致的危险,而不是超级人工智能的...
在未来几年中,我们将会慢慢习惯、喜欢与机器说话,让它们成为更好的工具,成为难以觉察而自然的...
正如今天的事物被历史上的很多人为因素影响,现在我们所做的很多事情,也会影响未来的走向。
在技术和人性的结合之下,这或许是一个更容易塑造寡头垄断的时代不通人性的机器背后,是没有人性的人
您当前的位置 :
人不可能像机器一样毫无感情地作出最理性的选择,而是需要时间进行反应、思考、判断。(电影《萨利机长》剧照/图)
  一架满载乘客的飞机从纽约起飞后遭遇鸟群撞击,两台引擎全部失灵,英雄机长奇迹般地实现了水上安全迫降。这是去年底上映的电影《萨利机长》讲述的真实故事。不过,迫降成功只是故事的开始——其后,萨利机长接受了航空安全部门的轮番调查和盘问,他被质疑:为什么不返航拉瓜迪亚机场,而要冒险迫降?也许机长并不是英雄,而是拿全体乘客性命开玩笑的莽夫?
  在听证会上,航空安全部门展示了模拟数据。在先进技术的支持下,机器完美地还原了当天飞机遭遇鸟群撞击之后的高度、速度、角度等数据,以及天气、风向等外部环境。模拟结果表明:这架飞机完全可以成功返航,在原机场着陆。
  眼看萨利机长就要声名扫地,这时他指出了一个关键因素:机器可以完美地模拟客观数据,却没有考虑到,当时驾驶飞机的是活生生的人。人不可能像机器一样毫无感情地作出最理性的选择,而是需要时间进行反应、思考、判断。
  果然,当机器模拟将人的反应时间考虑进去之后,飞机便无法再成功着陆机场,水上迫降成为唯一的选择。
  在不通人性的机器面前,英雄机长的命运险些被毁掉。其实,这个世界上还有千千万万小人物,也因为机器不懂人性、不具备人文关怀,而生活在糟糕的处境之中。
  这类小人物的最典型案例,就是美国不少快餐连锁和大型超市的工作人员。他们大多是按小时数拿薪水的合同工,收入本就微薄。近几年,企业大规模采用机器来进行排班,让他们受到进一步的剥削。
  这种排班的核心是基于顾客流量安排上岗员工数。其实,超市和快餐店本来就会进行这种“科学排班”:周二上午人流少,少安排人上岗;周五晚上人流多,全员上岗。不过,新的数据技术让这种方法的复杂性达到了前所未有的程度:比如,下雨时,人们可能会更多走进咖啡店,所以这时要多安排人手;某个晚上附近的体育场有大型赛事,可能会给快餐店带来一大批深夜客流;甚至,根据社交媒体上提及某一产品的热度,来预测门店的人流……这一切都让人流预测和排班安排达到了前所未有的科学化程度,但它却给店里的打工者带来了灾难性的后果。
  为什么会这样?首先,这种复杂的预测方式,往往需要利用非常新的数据(比如天气预测、社交媒体热度),因此很多时候只能提前一两天完成预测。这也就意味着,员工的排班表不是一个月前就安排好了,而是提前一两天才能得到,而且永远处于不可预测的变动之中——因为数据是在不断变动的。这也就意味着这些打工者永远处于不确定性之中,可能随时被叫去工作,无法掌控自己的时间,这对需要照顾家庭的人来说尤为不便。
  其次,此前,超市和快餐店的打工者们还能享受一些间歇的清闲,不至于每一分钟都在高压之下。但是现在,拜算法所赐,他们基本上每一分钟都要处于紧绷的状态,因为机器算法的终极目标就是最大化每一位员工在岗时的工作投入。这对于企业盈利的目标而言自然是合理的,但它却没有考虑到员工作为活生生的人在这种制度下所受到的巨大压力。
  此外,机器还会自动完成一些奇葩的排班方式:比如,晚上值最后一班岗,工作到11点关店,第二天一早又要上最早一班,凌晨4点就要起来去开店。这种情况一度非常普遍,以至于人们发明了一个词:clopening,也即关门(closing)和开门(opening)的合体。有这种排班方式,并不是因为机器要有意为难这些打工者,而是因为在机器的算法中,并没有“人类需要充足睡眠时间”这样的设定。不需要睡眠的机器,理所当然地认为人类也是一样的金刚不坏之身。
  数学家Cathy O\'Neil在去年出版的《数学杀伤性武器》一书中讲述了不通人性的机器剥削底层打工者的故事。她提醒我们:机器和算法的表现,最终体现的其实是制造机器、设计算法的人的意志。如果设计算法的人不考虑人性的因素,那么机器是不会自动考虑人性的。从这个意义上说,机器不通人性并不可怕,只要制造机器、设计算法的人多一些对人性的考虑和关怀,比如禁止连续排最晚班和最早班、要求提前一周定下排班表等,事情就不会变得那么糟糕,就像在萨利机长的听证中加入那关键性的35秒一样。
  (文/方可成 作者为传播学博士候选人)
正文已结束,您可以按alt+4进行评论
本网各平台二维码,扫一扫新闻更精彩}

我要回帖

更多关于 说明文 议论文 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信