赛车北京pk10技巧
瞭望智库

2016年5月12日   星期四   丙申年   四月初六

设为首页 | 加入收藏夹           中文站 | EN

五十年后,互联网世界会是什么样?

云贺 | 瞭望智库副研究员

发布日期:2019-12-02

下一个五十年,互联网必将与人类社会产生更加紧密、也更加不一样的联系。而前景的好坏,既取决于互联网技术的发展速度,也取决于人类的应对方案。

1969年,对全世界而言都是个神奇的年份:人类首次登上月球、披头士乐队举行最后一次公开演出、互联网在这一年诞生……其中,对更多人来说,互联网的诞生显然更具影响力。从此以后,人类世界有了现实与虚拟之分,无数行业开启了变革的前奏。然而,伴随变革而来的还有数不尽的新麻烦,如网络安全、数据滥用等。

下一个五十年,互联网世界会是什么样?这些麻烦能否得到解决?为回答这些问题,今年10月底,美国皮尤研究中心调研采访了530位技术专家、创新企业家、政策主导者及科研人员,请他们描绘五十年后人类的互联网生活图景,并基于此撰写了名为《互联网生活的下一个五十年》的报告。

调研结果显示,大部分受访者都承认,下一个五十年,互联网必将与人类社会产生更加紧密、也更加不一样的联系。而前景的好坏,既取决于互联网技术的发展速度,也取决于人类的应对方案。

这是一个怎样的时代?

1969年10月29日,加州大学洛杉矶分校的研究生团队在伦纳德·克兰罗克(Leonard Kleinrock)教授的指导下,与斯坦福研究院实现了两台电脑主机之间的远程通讯连接。这一天,也被普遍视为互联网的“生日”。

“这是一个最好的时代;这是一个最坏的时代。”英国作家查尔斯·狄更斯所著《双城记》中的这句话,十分适用于互联网时代。美国皮尤研究中心的调研结果也证明了这一点。

在530位被访者中,72%对互联网的未来持明确的乐观态,25%的人则认为互联网的未来前景隐忧重重,剩下的3%则认为,五十年后的互联网时代与今天相比不会发生重大改变。

有意思的是,乐观者与悲观者对于同样的问题,有着完全相反的判断或结论。

比如,对于面这些问题:互联网会不会加剧社会阶层矛盾和贫富差距,人类会成为机器的奴隶还是主宰,人们的线上社交活动是一种更紧密的联系还是更疏离的关系,社会资源会走向垄断还是分散——

乐观者认为,下一个五十年,先进的互联网技术将给人们带来更长的寿命、更闲适的生活,社会资源与权力将更趋扁平化分配,由此促进实现社会公平。

悲观者则表示,互联网技术尚未实现普及,人与人之间的差距只会越来越大,其最终结果就是,经济、健康、教育等优势资源将向能够掌握或熟练应用互联网技术的人群聚集,而这样的社会将矛盾重重,隐性歧视也会无处不在。

不过,无论如何,大部分人都同意这一点:2069年的世界将大不一样。

奥特米特技术研究公司(Altimeter Group)的分析师苏珊·埃特林格(Susan Etlinger)就表示,五十年后,我们今天所理解的互联网概念将被颠覆。

到那时,互联网不仅仅是通过URL、APP和网页等平台将数据和信息组织起来的技术,人与人、人与物在虚拟世界中的联系都将是可交互的、甚至是可被人类触觉感知的,而且虚拟世界中产生的这种联系还将深度嵌入到人类的日常生活中。

而最终的结果是:虚拟世界与物理世界之间的区隔会被打破。

“好结局不会凭空冒出来”

与此同时,几乎所有受访专家都认为,下一个五十年,互联网世界需要更加有力、精准的管理制度。

麻省理工学院的教授埃里克·布林约尔松(Erik Brynjolfsson)表示:“我不认为‘五十年后是好是坏”是最合适的提问方式,现在应该问的是‘我们怎样才能修复结果?什么是当前最不确定的因素?’我希望我们能做出正确的抉择,但我们必须知道,好的结局一定不会凭空冒出来。”

的确,无处不在的数据滥用、永不掉线的监视直播、无孔不入的安全漏洞……这些困扰许许多多普通人生活的互联网问题,正在以一种不可预测的速度蔓延开来。

当虚拟世界中的问题涌上了现实生活的海岸,止损成为政府和企业共同的课题。 为此,报告总结出了在未来的互联网时代,政府和企业需特别关注和加强应对的一些风险点,主要包括:

——互联网世界的社会差距会不断扩大。掌握技术应用的人与尚没有接入网络的人之间,将产生一道深深的鸿沟。更可怕的是,虚拟世界的鸿沟与现实世界的鸿沟逐渐重合,使得优势资源进一步向着少数人手中集中。

——人类的沟通越便捷,个人世界越荒凉。一个充斥着“超级连接”的未来,将由一个个被孤立的个体构成,人与人之间的物理距离有可能越来越远。而一旦网络这个中介消失了,人类如何联通彼此将成为一个大难题。

数据管理问题尤为重要

此外,报告认为,在诸多风险点中,数据管理问题尤为重要。

在许多普通人的日常生活中,“用信息数据换便利”已经成为一种趋势。而人们的一举一动(购物、乘车、出行等),都会在各类网络平台上留下痕迹,成为商家进行行为分析的素材。

皮尤研究中心用“持续不断的数据监视”来形容这样的互联网时代。可是,这背后不仅存在着巨大的安全漏洞,如数据滥用和泄露问题,还有可能涉及到算法歧视。

这类算法歧视来源于“有偏见”的数据。众所周知,机器学习模型的构建在很大程度上取决于训练机器时读取的数据。然而,一旦基础数据出现细微的偏差,就可能会导致整个模型出现结构性偏差。

数据存在的“偏见”,经由算法系统读取和分析,不仅会被完整地记录和学习下来,甚至还会放大这种“偏见”,使之刻板化。

美国文化理论界的几位专家在受访时就表达了这样的担忧:“除非我们立即规范数据的收集使用过程,否则种族歧视、性别歧视、恐同症、仇外等情绪,将经由机器算法进一步巩固。最终,少部分精英集团的意见和情绪将被无限放大。”

事实上,涉及算法歧视的案例已经在美国出现过许多次。例如,谷歌搜索的“自动填充”功能被指控含有诽谤性搜索提示,侵犯了公民权利。再如,基于机器算法的广告商们,会更多地将高息贷款的相关信息自动推介给低收入群体,等等。

而人类如何应对这些问题,将成为决定未来互联网社会发展图景是否美好的重要因素。

来源:瞭望智库

版权所有,未经授权不得转载

瞭望智库紧扣“国家政策研究、评估和执行反馈”这一核心业务定位,利用新华社内外智力资源, 连接全球主要智库,服务中央决策和新华社调查研究,发挥政治建言、理论创新、舆论引导、社会服务、公共外交等功能, 在社会上形成广泛的知名度和影响力。

学术合作:韦薇 [email protected]

商务合作:陈晶 13910894987 赵沁珩 15201538826

通讯地址:北京市东城区永定门西滨河路8号中海地产广场东塔16层.100077

客服邮箱:[email protected]

?2015 瞭望智库(北京)科技发展有限公司 京ICP备10031607号-3

北京pk10一期人工计划