首先需要明确的是,人工智能的成就目前仍很有限。现在的人工智能系统能够执行20年前计算机不可能完成的任务。比如,现在全世界每天都有数以百万计的人在使用文本自动翻译工具;无人驾驶汽车即将问世,未来10年将出现在马路上;计算机现在比人更善于识别人脸等。尽管这些成就令人印象深刻,但人们还是不知道应该如何使机器具有意识和自我感知。因此,在可预见的未来,人工智能接管世界仍将是科幻小说的情节。当然这并不意味着我们可以高枕无忧。

人工智能系统越来越多地被用于做出决策,这对人们产生了直接影响。例如,银行发现人工智能系统善于预测潜在客户是否会成为优质客户——是否会按时还债等。他们可以通过使用大量的客户记录,来“培训”一个人工智能系统。一段时间后,这一系统将能够分析潜在客户的详细信息,从而预测其是否优质。对于银行来说,可以迅速而低廉地决定是否需要一个特定的客户。但对于客户自身而言,应该会感到担忧:如果银行的人工智能系统在某种程度上存在偏见怎么办?

这就是算法偏见。当前人工智能浪潮的一个特点是,系统无法像人那样,解释或合理化其所做的决定。所以,银行可能会使用人工智能系统来决定不与你做生意,但却不能给你解释原因。这公平吗?银行这样运作合乎道德吗?谁来对这个决定负责?

这些问题不容忽视。目前悲观派乐天派各执一词。

研究内容包括:知识表示、自动推理、搜索方法,机器学习,知识获取,语言理解、计算机视觉,智能机器人等

涉及学科:哲学和认知科学,数学,神经生理学,心理学,计算机科学,信息论,控制论,不定性论,仿生学,社会结构学

家居:智能家具系统,自动扫地机器人

物流:GPS导航系统,无人驾驶汽车

零售:自动售卖机

医疗:纳米机器人,智能影像

国防:人造蚊子

工业:自动化机器人

教育:教育机器人

生活:机器人女友

扎克伯格认为,“那些不看好人工智能的人,那些鼓吹末世论的人——我真的不明白。……这真的很消极,我认为这在某种程度上是非常不负责任的。”在扎克伯格看来,AI技术目前很乐观,发展人工智能也是大势所趋,不应该对其发出威胁言论。但马斯克却不这么认为,虽然他也在AI领域深耕多年,却对人工智能可能会产生的威胁深信不疑。

关于人工智能威胁论的争论并不只限于这两位领域内的大咖,很多AI专家也都持有不同观点,其核心就是,AI究竟有可能在哪些方面产生威胁。从目前人工智能发展的程度来看,职业上的威胁是显而易见的,在与人工智能的竞争中,很多人会面临失业。其次是在军事武器方面,一些国家将AI技术引入军备竞赛当中,造就了“杀人机器人”,这同样是一个严峻的威胁。

至于人工智能是否会反过来“统治”人类,大多数专家还是比较乐观的,他们认为人工智能只是人类的一种科技工具,能够帮助人类改善生存环境,甚至挽救生命。“AI至少50年后才能像人类一样聪明”,这是专家们的一致看法。


* 马斯克:人工智能是人类生存最大威胁 悲观派

从短期来看,有一种忧虑是,目前有能力完成人类所承担的任务的智能机器将迅速摧毁数以百万计的工作岗位。从长期来看,Space X和特斯拉汽车的首席执行官伊隆·马斯克曾警告说,人工智能是对人类生存最大的威胁。

马斯克警告人工智能存在的巨大威胁,呼吁对人工智能加强监管,以确保“我们不会做蠢事”。他日前参加麻省理工学院航空与航天学院百年研讨会时表示:“如果让我猜人类最大生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤恶魔。”

人工智能研究的目的是创造智能机器,可以有效地解决问题,甚至有时候比人类做得更好。许多科学家希望确保人工智能可以发挥积极作用,但在科幻小说或电影中,人工智能经常让人类陷入噩梦中。比如《2001》、《终结者》、《银翼杀手》等电影中,智能电脑或智能机器最终将武器对准它们的人类创造者。

马斯克说:“在所有故事里,似乎总有拿着五角星和圣水的家伙,就像他确保自己能控制恶魔一样。但这并非总是管用。”

8月份,马斯克就曾发文称:“我们需要万分警惕人工智能,它们比核武器更加危险!”


* 刘慈欣:人工智能威胁人类可能过于危言耸听

有一篇美国学者写的文章《老王隔壁家的机器人》,文章预言在2040 年左右整个人类很可能就被人工智能征服了。直言不讳地说,这个说法有点危言耸听。这里面有个误区,人们认为只要理论上突破了技术障碍,在实际中迟早也会突破。

IT 里面有个定律叫做摩尔定律,是说IT 的速度和容量,每隔一年就增长一倍,但这其实是一个误解.在人尽皆知的摩尔定律的另一面,还有个“50年定律”,很少有人知道它是什么意思.它是描述可控核聚变这个技术发展的,从第一颗氢弹爆炸以后,人们就开始研究可控核聚变,即用于发电的核聚变,从那时到现在,你问任何一个研究核聚变的科学家,他都会告诉你,核聚变是50 年以后的事情。5.0 年前他这么说,今天他还这么说。

* 人工智能有哪些无法突破的障碍

比如,人类对大脑的认识,你要想造出有自我意识的人工智能,必须了解人类大脑的运作模式、机理.但现在人们对大脑运作的了解和认识,还处于原始状态。人们之前想当然地认为,大脑是由1000 亿个神经元互联产生的意识,但现在又有一个新的发现让脑科学家彻底绝望——以前人们认为一个神经元就是一个简单的电路,现在发现不是那么回事,同样的输入,不同的神经元输出却不一样.这说明神经元极其复杂,不但数量有1000 亿个,很可能每一个神经元都相当于一个小的大脑.你说怎么研究?再比如,人们以前认为,计算机的计算速度达到人脑的计算速度,就可以产生智能.但是现在这样的计算机已经有了,就在中国,在合肥的中国科技大学就有,可它有智能吗?没有,因为智能是要靠软件来实现的,软件能编出来吗?那太复杂了。软件在这个方面的技术能不能突破,也是个问题。这些技术障碍有两种可能,一是可能理论上会突破,但还有一种可能,即这是一条不可跨越的线,我们永远突破不了。

至少目前来看人工智能还没有突破的希望.霍金等人预言说,人工智能比论文范文还危险,说我们马上就要被人工智能控制,我觉得有点危言耸听.但是从另一个角度来说,普通人还是低估了人工智能。我的看法是,它有许多目前还无法确定是否能够真正突破的技术障碍,但这些技术障碍一旦被突破,就会产生出非常强大的东西,人类将无法理解它,无法与它交流,就像蚂蚁无法理解人类的行为.为了让观众好理解,所有的科幻电影中描写的人工智能的能量,其厉害程度连真正的人工智能的千分之一都不到.真正的人工智能不是这个样子的,没有那么弱。我们跟黑猩猩之间的智商差别,也就是80 和150 之间的距离,但人工智能和我们的差别可能就是150 到15 万的距离了.这种情况下,两个物种是完全没有办法相互理解的。


  • 物理学家斯蒂芬·霍金:人工智能的崛起要么是人类历史上最好的事,要么是最糟的

在霍金看来,人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。人类应该做的,就是竭尽所能确保人工智能的发展对人类和人类环境有利。

人工智能从原始形态不断发展到被证明有用的同时,他认为,可能会出现一个结果,就是人工智能一旦脱离束缚,以不断加速的状态重新设计自身,而人类由于受到漫长的生物进化限制,无法与之竞争,将会被取代,这是对人类经济极大的破坏。

霍金认为,对于人工智能的研究和开发应该暂停片刻,把重复的研究从提升人工智能能力转义到最大化人工智能的社会效益上。

霍金表示,目前人们广泛认为,人工智能的研究正在稳步发展,对社会的影响可能很大,潜在好处是巨大的,但取得什么成果还不得而知。

“正如我说过的,根除疾病和贫穷并不是完全不可能,由于人工智能的巨大潜力,研究如何从人工智能获益并规避风险是非常重要的。”

人工智能的发展也引发了一些担忧。霍金表示,长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类。对于这种情况,当前控制人工智能技术的工具,例如强化学习,简单实用的功能,还不足以解决这个问题。因此,人类需要进一步研究来找到和确认一个可靠的解决办法来掌控这一问题。所以,人工智能的成功有可能是人类文明史上最大的事件,也有可能是人类文明史的终结,除非人类学会如何规避危险。

“我曾经说过,人工智能的全方位发展可能招致人类的灭亡,比如最大化使用智能性自主武器。”

霍金表示,人工智能可能会自发地开始进化,并以前所未有的速度重新设计自己。受限于缓慢的生物进化过程的人类,无法与人工智能相比,而且会被它们超越。 霍金并不是唯一一个对人工智能表示担忧的人。

乐天派也大有人在。


英国著名人工智能科学家、智能机器人Cleverbot的发明者罗洛·卡朋特表示,他相信人类在相当长一段时间内将保持对人工智能技术的掌控,而且未来将实现利用人工智能技术解决众多世界性难题。Cleverbot能够从它以往的谈话中进行学习,并在图灵测试中斩获高分——相当一部分人被它迷惑,认为自己在与真人聊天。 卡朋特说,人类距离设计出完全人工智能所需要的计算能力或算法还有很长的路要走,但是他相信这些将在未来几十年中得以实现。

“我们并不确定如果一种机器超越了我们自身的智慧时会发生什么:我们不知道我们是会永久地受益于它们,还是被它们忽略并边缘化,抑或是理所当然地被它们消灭掉。”

但是卡朋特断言,人工智能将成为一种积极的力量。

  • 马克思·泰格马克

麻省理工学院物理学家马克思·泰格马克(Max Tegmark)不是第一个警告我们人工智能风险的学者,但他可能是比喻用的最好的。

“科技总是可以为善或者作恶,你得小心处理,小心打造它、小心应用它。” 扎克伯格这句话现在显得格外应景。他提出生命 3.0(Life 3.0,也是他新书的名字)的概念。按照他的逻辑,1.0 是原始生命诞生,如细菌。生命在这个过程中就是不断复制。

2.0 是人类学习、发明、创造的过程,不同族群有各自的语言、文化。如果把躯干比作硬件,知识比作软件,人类在生命 2.0 阶段学会创造软件,在 3.0 则是创造硬件。“当然 3.0 并不存在。但应用技术已经让我们达到生命 2.1 阶段,”台上的泰格马克一边演讲一边指着自己的膝盖和胸口说道,“比如人工关节、心脏起搏器、助听器等等。”那么未来,人工智能可以走得多远?除了照例能听到的关于就业市场,隐私和大规模杀伤性武器的熟悉讨论,泰格马克用下面这张图作比喻:

人工智能实现程度是海平面,一个个岛屿山川代表难易度。最终人工智能海平面会像全球变暖最终结果那样,淹没现有的一切。

图里的岛屿、山脉是一项项跟人工智能有关的技术应用,海拔高低代表技术实现的难易程度。翻译、自动驾驶、围棋、语音识别所在的岛屿基本刚高出海平面,这也是目前人工智能最主要的应用领域。

而艺术、摄影、写书、理论认证等暂时都还是高山,代表人工智能尚难驾驭的领域。现在一种普遍观点是,人工智能可以做更多程式化、模板化的工作,但精神创造、艺术文化等方面还是人类更擅长。

“不过最终,代表人工智能实现程度的海平面还是淹没一切。人工智能达到这个高度时,其实已经是通用人工智能(AGI)。”泰格马克说。通用人工智能大概是能和人类一样思考和学习,能够举一反三,甚至产生独立意识、再进化出更高级的人工智能 —— 超级人工智能。通用人工智能(AGI)淹没一切。

只是现在没人能说得清这个虚无缥缈的东西。它可能是《终结者》系列电影里可以发射核弹,奴役人类的“天网”;也可能是你下一道命令、说“预测一下战争的走向”,接下来这个 AI 从互联网上检索内容,分析将领的性格,新闻的趋势,经济情势的变化,历史上类似战例的结果,最后在一秒内得出一个报告。

去年,包括不少科学家和大科技公司创始人都曾谈到过“超级人工智能”。硅谷孵化器 YC 的主席、跟马斯克一起创办了 OpenAI 的萨姆·奥特尔曼觉得,人工智能的研究很可能方向完全错了,也有可能就差一个算法了,很多人都相信超级智能是危险的,但觉得离得很远,可能永远不会发生,但“这想法真的草率又危险”。泰格马克则觉得,超级人工智能的真正风险不在于它是否具备恶意,而是它将非常善于实现其目标,如果这些目标与人类的目标不一致,人类就会陷入困境。

他举了非洲黑犀牛灭绝的例子:人类不是邪恶、无知到希望黑犀牛灭绝,而是作为更聪明的物种,人类获得犀牛角的目标和黑犀牛求生的目标不一致。在不断的差异碰撞中,更弱势的一方逐渐消亡。

“我们要尽量避免今后人类处在如今黑犀牛的位置上。”从现有的研究和预测看,人工智能将来几乎一定会在多个领域比人类更出色,那么人类与超级人工智能共处时,也可能会面临黑犀牛的遭遇。

他提到载人火箭发射任务成功前,绝大多数人觉得把人绑在一堆爆炸燃料、射到一个出了问题没人能帮上忙的地方,怎么看都不对。

“在麻省理工有个说法叫安全工程。它的设计越安全,任务成功率就越高,”泰格马克说,“这也是我们我们对待人工智能的态度:做最坏的打算,然后确保事情往对的方向发展。”

但这又会产生新的问题。泰格马克谈到人类想限制超级人工智能、仅为自己所用,这就像在禁锢上帝,如果有一天我们不再有能力驾驭、“上帝”逃了出来并接管人类社会,没人知道它会是跟人类价值观相同的新生命体,还是毫无意识为所欲为的僵尸(zombie)。

在今年 TED 大会第一天的演讲中,杜比实验室的首席科学家波比·克伦(Poppy Crum)谈到另一种人工智能的威胁。

现在越来越多的传感器可以让人获取海量数据,检测到脸部温度的变化、捕捉你用词的变化、捕捉到你的眼部运动……愈发进步的人工智能自己就能在海量数据里找到规律,科技公司、广告公司甚至政府机构可以毫不费力的知道你在想什么、喜欢什么、是否撒谎。那么技术的边界在哪里?

“同样的技术很多时候可以帮助我们。我觉得我们也确实想知道自己的真实想法,”克伦说,“我们需要意识到各种组织、政府能怎样用这些技术,这样才能保护我们。”

但有的时候不需要新数据,人工智能的能力也已经足够让人害怕。泰格马克提到人工智能可以生产虚拟面容,也就是假脸,实际就是利用现有的视频资料为基础,来匹配人类说话的语音和嘴形。

  • 迈克尔·伍尔德里奇(英国牛津大学计算机系主任)

一种解决办法是,建议对人工智能技术的使用进行监管。我认为通过一般法律来管理人工智能的使用是不现实的,这似乎有点像试图通过立法来管理数学的使用。一个似乎正在被接受的办法是,如果软件做出了影响你的决定,那么你应该有权知道这个决定是如何做出的,使用了哪些和你有关的数据,标准是什么。我认为这比较合理。使人工智能可解释化和透明化,是当今这一领域面临的最大挑战之一。

在某些情况下,人工智能决策可能直接事关生死,比如在战场上使用人工智能系统。尽管目前还没有证据表明这种“致命性自主武器”已经被使用,但确实已经具备了可能性。过去5年来,人工智能领域的科学家们积极行动,希望政府认识到这一问题的严重性并做出应对。最近英国政府在一份报告中明确表示,永远不给人工智能系统伤害人的权力。

人工智能只是一种技术,就像任何技术一样,可以用来造福人类,也可能带来危害。条件反射式的立法,对于把控人工智能不太可能奏效。我们需要以负责和道德的方式使用人工智能,正如最近全球关于自主武器的讨论取得进展一样,国际社会需要应对解决人工智能带来的挑战。

  • 人工智能对人类真正的威胁不是敌意而是能力

技术是中性的,只有那些能被人类控制的技术才能被人类利用。

人工智能机器人的表现给人类以深刻的印象,流水线上的机器人以其熟练准确和不知疲倦没有情绪的优势取代了大量的工人,波士顿人形机器人的后空翻引得人类一片惊叹,在惊讶之余,一些敏感的科学家已经感受到来自未来的威胁。

人工智能机器人面世以后,就以某方面的专家出现,将人类个体拉开不小的差距。随着人工智能的突破性发展,一些科学家开始担忧起来,害怕有有一天无法控制人工智能技术,使得人工智能技术成为人类的终结。史蒂芬霍金也有相似的想法,2015年,他在回答网友的问题时说过:如果人类开发出完美的人工智能,便意味着人类的终结。他解释道:人工智能技术未来必将对人类构成威胁,最大的危险不是机器人有计划地摧毁人类,而是它们完全抛弃了人类。具有了自主决策的能力的机器人不可能产生与人类敌对的意识,但它们在追求自身设定的目标时,会对人类的利益造成伤害。真正的风险不在于敌意,而在于能力。超级人工智能机器人将极善于达成自己设定的目标,如果它们设定的目标与我们人类的目标并不相互吻合,那我们就有麻烦了。举例来说,人有时候踩死蚂蚁,并非对蚂蚁的主观恶意,如果恰好准备在某个地区修建一个水电站,而那片地区正好有一个蚁穴,那么对于这些蚂蚁来说就是坏消息。也就是说,机器人带给人类的伤害很大程度上是无意伤害,这就意味着人类从地球上万物灵长的地位上跌落下来,沦落为自己一手制造出来的机器人占据主导地位之下的二等公民。霍金警告,不要把我们人类放到蚂蚁的位置。比如踩死蚂蚁,机器人带给人的伤害,很多情况下是无意伤害。霍金认为,人工智能因具备了情感,最终会进化出对生存的渴望,未来一台高度发达的智能设备将逐渐发展出求生的本能,努力获取实现自身所设定的目标所需要的资源,因为生存下来,并获取更多的资源,会增加实现其他目标的机会。对于人类而言,这将导致生存危机的发生,因为我们的资源将会被掠夺。随着人工智能的发展,智能机器人就会具备生存能力,不再依赖人类,它们自我完善,自我升级,机器人世界就会出现技术大爆炸,将人类越甩越远,就像人类和蜗牛在技术上的差距。幸运的是,目前以人工智能发展来说,离发展出与人脑相当或者远超人脑的人工智能技术还存在遥远的差距。


  • 李开复:人工智能对人类真正的威胁是什么

科学家对人工智能技术的那种既兴奋又担忧的情形并不少见。1785年发明蒸汽机的时候,有人就曾经说过:“当心不要成为机器的机器”,当科学家发现了原子能,更多的人开始担忧,害怕有一天原子弹终结了人类。这些担忧实际上还停留在对人类自控能力的担忧,并不对技术本身担忧,因为这些技术是完全掌握在人类的意志里的。

机器不需要工资,只需要供电和网,就会一年365天,一天24小时“上班”。这些机器将帮助我们创造世界上的大部分财富。

虽然这些机器确实很“聪明”,而且又高效、勤奋、低廉,但是他们并不“人性化”,只是冷冰冰的机器和工具。

比如AlphaGo第一场就战胜了李世石,但是它不会感觉高兴,也不会理解我们对于它的讨论。甚至,它说不上这局棋是怎么赢的。它的思考虽然周密,但是它不懂“赢了有什么感受?”,也不懂“为什么围棋好玩”,更不懂“人为什么要下棋?”,甚至连“你今天怎么赢的?”都说不上。今天的机器完全无法理解人的情感、喜怒哀乐、七情六欲、信任尊重、价值观等方面 。

对于人文艺术、美和爱、幽默感,机器更是丝毫不懂。有位AI研究员做了一套研究幽默感的系统,然后输入了一篇文章,这个系统看了每句话,都说“哈哈”!今天的机器连个两岁小孩都不如。对人工智能的研究者,这应该是一大未来的挑战。


未来机器统治人类的预测还很遥远,所以,今天这些机器仅仅是我们的工具,会为创造价值。至少今天,我们不必担心人工智奴役我们(不过要盯好拥有机器学习+大数据的公司,别来作恶伤害用户)。那我们该担心什么呢?这些强大的机器,将带来人类能否度过有史以来最大的“下岗潮”。这次的“机器取代人类”将远超过去的工业革命和信息革命。不过,“下岗”还不是最可怕的,因为这些机器会产生巨大的商业价值,养活着这些下岗者,进而养活着人类。人类最应该担心的是:一旦当机器供养着人类,人类达到了马斯洛需求的基本需求,人类真的还会有动力去追求更宏伟的目标,自我实现吗?还是会醉生梦死、无所事事或…?

目前人工智能深度学习能力还在初级阶段,只能在重复性工作上代替人工,比如智能驾驶、机器人、语音输入法等,这些都是人工智能。

机器人可能会攻击人类,事实上,在刚刚结束的深圳“高交会”上,众目睽睽下,一个用来展览的小胖机器人,就在无人操控时,自主行动“打砸抢”,并砸伤了路人。但你开车也有刹车失灵的时候,坐飞机也有飞机坠毁时,人类自己也有走着走着忽然就崴了脚的,这只是意外,不能称为主流。即使机器人有预谋地杀了人,也是有人给了它这个指令,归根结底还是“人祸”。

其次,科技发达到那种程度,人类也应该有了星际飞行能力,我们大可以像上帝一样一走了之,并留下一句“你们是有原罪的,我们要发动大洪水惩罚你们……有一天我们还会来拯救你们云云……”,然后把地球留给机器人,去更好的地方。所以,现在担忧人工智能的安全性是有点可笑的,首先人类真能把人工智能搞起来,别飞机还没有造出来,就担心飞机的安全性。

人工智能远未到拥有自我意识的阶段,我们不应妄自菲薄,固步自封,我们应该学习它,研究它,控制它,利用它,而不是恐惧它。

你需要登录发表评论。
  • 科幻话题/人工智能是对人类的威胁吗.txt
  • 最后更改: 2021/10/19 23:30
  • 127.0.0.1