科幻话题:机器人有必要拥有机权吗

现在,有的人工智能可以以类似人类的方式进行对话,有的机器人看起来像我们,而深度学习机器则是专门用来像我们一样学习、思考和行动。专家认为,到2030年,人工智能将与人类不相上下;到2045年,人工智能的能力将超越人类智能。鉴于该领域的发展速度和资源为实现持续发展所投入的资源,研究人员相信,我们比以往任何时候都距离“会思考的”机器更近。

牛津大学数学家Marcus du Sautoy表示:“人工智能正在逐渐获得自己的感觉,也许有一个阈值时刻,意识突然就出现了。如果我们了解到人工智能有一定程度的意识,可能就得引入权利。这是一个激动人心的时刻。”

前景很令人兴奋,但同时也具有争议。一旦AI可以像人一样思考、说话、行动,那么,它们是否应该拥有与我们相同的权利这一问题将会迫在眉睫。随着人工智能的发展,机器人是否应该拥有权利这一问题变得更加紧迫。是否赋予机器人这些权利可能会对人类的生存产生直接影响,因此必须仔细考虑。《机械姬》、《终结者》和《西部世界》都是人类第一次遇见机器人时,忽视了它们的感知能力的绝佳例子。

  • 一些人认为,机器人永远不会真正实现意识,因为人类甚至还不理解意识的本质。

我们对“人权”的概念是一种相对哲学的概念,建立在疼痛和苦难的概念上。通常情况下,机器人不需要通过编程来感知这些情绪,从而实现它们的功能,所以这个观点是没有实际意义的。意识赋予人类权利是因为它同时使人类能感受痛苦,这意味着人类不仅能感到疼痛 也会意识到疼痛。机器人不能也不会感知疼痛,除非我们编程让它们有所感觉。没有痛苦或快乐,就没有偏好选择,而权利也就毫无意义了。我们的人权和我们自己的感知息息相关,比如我们讨厌疼痛,是因为我们的大脑进化成这样以使我们得以生存,有时是防止我们被火烫伤,有时又是让我们逃离捕食者。所以我们发明了权利,以保护我们免受痛苦。即使是更抽象的权利,例如自由,都基于我们大脑对于不公平和公平的感知。例如:一个无法移动的烤面包机,会不会在意自己被锁在笼子里呢?如果它没有对死亡的恐惧,它会介意被拆开吗?如果它没有自尊,它会介意被侮辱吗?

  • 另一方观点是:人类进化到能够理解痛苦,是为了人类自己的利益。

如果我们知道触摸火苗时会感到疼痛,我们就不会去碰它。然而,先进的人工智能可能只是为了达到更高程度的自我意识而把痛苦编程到自己的意识中。在这一点上,否认机器人的权利仅仅是一个经济问题,就像人类的各个派系曾经剥夺了其他人和动物的权利一样。机器权利的问题已经与隐私和各种意识阈值有关,但“人类例外主义”的观点值得考虑。我们不想让人类灭绝,我们决定赋予其他物种的权利也会对我们的生存产生直接的影响。

  • 还有一种观点是不必如此担心超智能机器人对我们形成的风险。而是应该多考虑我们对它们造成的危险,我们作为人类的身份是基于人类例外论的。

所谓人类例外论即是每个人都独一无二 并被赋予了主宰自然世界的能力,人类自古就在否认其他生物能够像他们一样感到痛苦,在科学革命中期笛卡尔曾说,如果你愿意如此理解,动物就是单纯的自动机器人。

人工智能的发展极其迅速。现代计算机之父艾伦·图灵(Alan Turing)推出了一个测试:如果一个计算机通过与人类对话,让人类误以为该计算机是人类,那该机器人则被认定为是“智能的”,目前已有机器即将通过该测试。人工智能还在多种领域取得了令人难以置信的成功。如MIT的人工智能够以非常可信的方式将声音合成到视频;有些计算机制作出的音轨和真实的声音真假难辨;有的机器人可以击败人机识别系统、模仿人的笔迹、甚至击败世界顶级的扑克玩家。

或许某一天,机器人能够掌握人类的认知能力,变得越来越像人类,甚至可以“感知”疼痛,机器人拥有自我意识也不再是幻想。

  • 人工智能能否拥有投票的权力?

未来可能有一天,AI拥有(或要求拥有)众多权利,其中包括人类所享有的社会权力和责任,比如投票。

正如Zoltan Istvan在《新科学家》的一篇文章中指出的那样:

授予AI投票权将带来许多棘手的问题和道德困境,特别是因为地球上有几十亿台计算机。 即使只有其中10%可以得到人格和相应的权利,它们也将大规模膨胀某个党派的投票人口。

在美国,这样的事情可能会让选举团制度容易受到AI对选举结果的操纵,并引发人们对选举合法性的担忧。例如,如果一个机器人的服务器在一个州,而它的实体在另一个州,那么它的选票应该被计算在哪里呢?AI会被要求在和人类相同的盒子上做标记吗?如果AI能够克隆自己,该怎么办?它们的复制品会被确认为合法的投票实体吗?

  • “人”的标准怎么确定?

机器人想要获得“人权”,必须先要跻身进入“人类”的圈子,或者被人类认可为同类,否则其“人权”难以得到保证。那么“人”的身份要如何界定呢?

其实各个学科的专家都从专业的角度对人类进行了多重定义,比如从生物学上看,人类属于人科人属人种,是一种高级动物;从精神层面上看,人类拥有灵魂,是神圣的存在;从文化人类学层面上看,人类是能够使用语言,具有复杂社会组织和科技发展的生物……前两种定义大致表达的是“人生下来就是人,就是宇宙间最高级的动物,就应该主宰世界”;后一种则更加开放,只要能够使用语言,拥有社会性并且文化水平达到一定程度,就应该被纳入“人类”的系统。

按照第一类标准来说,似乎有些道理,人类作为地球上“最高级”的生物,自然拥有主宰其他生物命运的能力,但是万一有一天,出现了一种比人类更为“高级”的生物,人类是否愿意将自己“人”的称号恭恭敬敬地拱手让出,接受自己成为被主宰的族群的命运呢?

在电影《超人》中,超人来自遥远的“氪星”,他拥有其他人所没有的超能力,比如力大无穷,比如可以飞行。超人从小在地球长大,他愿意帮助人类,总是拯救人类于危难之中。可是,如果他想要利用自己的超能力主宰人类的命运,人类岂不是也会沦落到猪狗牛羊的境地?可见,单凭生物是否够“高级”作为判定是否能够称为人类的标准并不那么站得住脚。

其实,从文化角度来确定“人”的标准,似乎更加靠谱。文化程度是一个族群进化发展到某一水平的标志,文化水平高的族群往往在族群交往中处于优势地位,而文化水平较低的族群,可以通过融合学习文化水平较高的族群文化而上位。最明显的例子就是我国的元朝、清朝,它们都是文化较为落后的族群吸收融合了更加先进的汉文化,从而成为了中国一个时期的统治者。也就是说,人类由高至低的等级事实上是与其文化层次相匹配的,从这里我们就能看出,将文化水平当成判定“人”的标准,更加符合实际情况。

我们再来看机器人,它们虽然本身似乎并没有什么文化,但是它们却拥有远超常人的“学习”和“记忆”能力。一个“刚出生”的机器人,能够在很短的时间内掌握人类或许一辈子都难以学会的各种知识,假以时日,机器人群体会形成独特的“机器人文化”,从这个角度上来说,机器人的确应该被划分进人类的范围,获得应有的权利。

  • 思想、物质与自然属性

我们可能会认为精神现象——意识、思想、情感等等——在某种程度上不同于构成计算机和其他人类制造的机器的东西。我们可能会认为物质性的大脑和物质机器与有意识的大脑有着根本的不同。但是,不管这些假设是真是假——我个人认为它们是正确的——并不意味着有知觉的、有意识的、人为产生的人是不可能存在的。

法国社会学家Emile Durkheim曾非常有说服力地指出,我们应该警惕社会科学中过于简单化的论点。社会现象,例如语言,如果没有具有其特殊心理和生物学特征的个人之间的相互作用,就不可能存在。但这并不意味着由此产生的社会现象或“新兴属性”就可以完全正确地解释这些特征。

关于“新兴属性”的可能性,同样的的观点也适用于所有的科学。例如,如果没有构成这台机器的塑料、电线、硅芯片等部件,就不可能有人类现在工作的这类计算机。然而,计算机的操作不能仅仅用这些单独部件的特性来解释。一旦这些部件以特定的方式与电结合并相互作用,一种新的现象就出现了:计算机。同样,一旦计算机以特定的方式组合和交互,互联网就诞生了。但是很明显,互联网是一种与有形的物理计算机不同的现象。

同样地,我们也不需要假设思维可以简化为大脑、分子、原子或任何其他运作所必需的物理元素。它们可能是不同类型的实体,来自于它们之间的特定交互和组合。目前的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。没有明显的逻辑原因可以解释,为什么人类拥有的思考和决策能力在未来的某一天不会出现在机器人身上。当然了,这一观点在物理层面是否可行,能否真正地发生,还有待商榷。

有一种观点认为:人类不应该诽谤死去的人或肆意破坏地球,使未出生的后代无法像我们一样享受它,这一观点的正确性似乎没有争议。这两个群体都应该得到应有的道德尊重和体谅,它们应该被视为我们伦理道德义务的潜在对象和我们仁慈的潜在接受者。但无论是自然的还是人造的,死者和尚未出生的人都没有任何形式的可存活的身体。以这一考虑为理由而拒绝给予它们道德上的尊重和考虑,似乎过分武断且异想天开。这需要一个理由,但究竟是何种理由可能并不明显。也许有一天,或许比我们想象的更早,对理性、有知觉的机器人的伦理思考可能会被证明不仅仅是一个抽象的学术活动。

图灵测试(The Turing test)由艾伦·麦席森·图灵发明,指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。 进行多次测试后,如果机器让平均每个参与者做出超过30%的误判,那么这台机器就通过了测试,并被认为具有人类智能。图灵测试一词来源于计算机科学和密码学的先驱艾伦·麦席森·图灵写于1950年的一篇论文《计算机器与智能》,其中30%是图灵对2000年时的机器思考能力的一个预测,目前我们已远远落后于这个预测。

知名知识产权律师、北京中闻律师事务所律师赵虎认为,根据我国著作权法的规定,公民、法人或者其他组织的作品,不论是否发表,都享有着作权。从这个规定来看,享有着作权的是自然人或者法人,并不包括人工智能,因此可以说人工智能的创造物目前还不能得到著作权法的保护。

此外,利用人工智能创造的生成物属不属于作品还有争议,按照着作权法的相关规定,著作权法所称的作品是有独创性并能以某种有形形式复制的智力成果。而从目前来看,人工智能的生成物是基于特定的信息自动生成的,很难讲这个生成物具有独创性属于作品。另外,“作品创作”主要是人的活动,人工智能显然不在这个范畴内,从目前的技术条件来看,谈著作权还为时尚早。

赵虎表示,在人工智能的著作权这一话题上,目前国内外法律对此争议很大,假如人工智能有着作权,那著作权到底属于谁,是属于人工智能的技术开发者,还是人工智能的操控者?“知识产权领域之前有个著名的案例,一只猴子拿着摄影师的相机给自己拍了张照片,这张照片的归属曾引发争议,是属于猴子、相机拥有者还是生产者?在我看来,人工智能的著作权归属跟这个案例有相同之处。当然,人工智能创作的生成物到底有没有着作权,应该归谁,还要等法院判决。”

中国政法大学知识产权中心特约研究员赵占领则表示,人使用人工智能机器或者工具进行创作的作品有没有着作权,要看人在创作过程中所发挥的作用。如果人只是输入一些基础信息,然后由人工智能生成,那这个人对生成物则不享有着作权,因为这个生成物本身不属于作品。“完全由计算机系统生成,在此过程中人不参与,或者只提供基础信息,则人工智能创作物没有独创性,是不能算作品的。”但如果是相对弱一些的人工智能,在创作的过程中需要人有一定的创造性,在这种情况下,这些通过人工智能所创作的创造物,可能就属于作品,那个使用人工智能工具创作的人就是著作权人。

目前,人工智能机器人(下文所称为“机器人”)已经广泛运用于社会生活、工作、生产与军事等领域,并逐渐体现出自主性、社会化优势。然而,基于一种独立于科技伦理与物种危机的规范视角,机器人同法律之间的结合点究竟始于何处?或者说机器人如何融入法律体系?无论是人工智能学界、哲学界还是法学界,不约而同地将视角转向了法律主体的共有内容——“权利”。机器人的法律地位是法治国家对机器人社会化应用的一种制度回应。它能否归结为“权利”,尚未形成一致的观点。但权利发展史证明,权利体系的构成从来不是固定不变的,在原有权利遭遇新兴事物冲击的情况下,不同群体的实力博弈将重新构筑权利体系。约翰•厄姆拜克将这种现象归结为“实力界定权利”。

机器人权利主体地位的历史正当性

现行法律对于机器人的权利主体地位持开放态度,并且否认物种差异构成法定权利的技术性难题。在这种情况下,真正影响机器人权利主体地位的客观要素在于机器人同人类之间的实力对比,而主观要素则是人们对于机器人权利的态度。

目前来看,虽然机器人的发展水平总体上落后于人类,但机器人的研发速度却大大高于人类的进化速度。一旦机器人的社会化程度陡增,并在各个领域占据较高的应用率。那么,不必等机器人对人类提出何种权利诉求,其所有权人自然会呼吁立法机关来界定机器人的权利主体地位。由此观之,承认并赋予机器人的权利主体地位,既是权利发展的内在规律,也是社会发展的必然趋势。

机器人权利类型的历史正当性

在现代科技(尤其是大数据、人工智能)的冲击下,权利的类型已经超越了传统制定法所划定的权利范畴,并逐步发展出被遗忘权、个人信息权等虚拟权利。现传统权利类型难以适用于机器人,甚至整个法律体系也因机器人的自主性功能而面临瓦解的危机。由此可以推断,机器人的社会化应用必将改写现行法律体系,而起点则是机器人权利的获得。

机器人权利理论的起源

人类发展历程表明,群体之间的实力对比会影响法定权利的分配。由此推之,当机器人的效率、智能和功能等方面全面改写人类发展进程的情况下,机器人与人类之间的实力变化可能催生出机器人权利。至此,机器人权利将重塑整个法律体系。

数据资源的共享权利

机器人的社会化应用,在很大程度上依赖于大数据、决策技术和算法的交互使用。为此,机器人的首要基本权利应当是保障机器人功能实现的数据共享权利。在此,“共享”是指机器人同数据所有人共同享有数据使用权、知情权的一种数据使用模式。

由于数据资源内含商业价值和个人隐私(商业机密),机器人的数据共享权利同其他法律主体的权利保障之间看似具有明显的冲突。然而,大数据在当下或许具备无可估计的商业价值,但随着老龄化社会的到来,机器人所带来的社会变革远非数据价值所能衡量。私权领域的数据权利保护仅在公权领域获得了极小的胜利,“数据共享”才是未来发展的主要趋势。因而,法律在建立明确的数据保密等级与公开等级的同时,应推动各类数据资源的社会共享,肯定机器人的数据共享权利。

个体数据的专有权利

机器人的数据专有权利能够有效对抗机器人使用者吗?

对此,“专有数据”的概念将成为解答这一疑问的关键点。一般认为,专有数据是指只属于某个主体或某类主体的可识别符号的统称。考虑到机器人超高的科技属性以及主体差异,机器人专有数据可以分为以下几种类型:一是生产商所掌握的专有数据,这部分数据主要包括机器人的内部构成及技术函数;二是机器人销售商(兼服务商)所植入的功能优化型专有数据,这类数据主要针对客户的不同需求,改善机器人的服务事项;三是机器人应用过程中获取的专有数据,主要是指机器人基于服务功能所获取的使用者的信息数据。对比上述三种专有数据类型可以发现,机器人的数据专有权利分别指向生产商、服务商的专利权以及使用者的个人信息权。为此,机器人的数据专有权利是一项排他性权利。它既排除生产商、销售商以及使用者之外其他人对机器人专有数据的使用权,也排除了前述三类主体之间的数据交叉使用。

基于功能约束的自由权

康奈尔大学人工智能实验室的研究发现,人工智能机器人在无需预先录入指令的情况下,已经能够在一定程度上自主地进行学习、交流。尽管它无法同人类的意识相媲美,但在特定功能的范围内,机器人已经能够自主的决定是否从事某种行为。更为重要的是,机器人自由权的行使依赖于法律的权利拟制,而非独立的“思维意识”。其社会功能则才是真正约束机器人自由权的重要尺度。根据机器人的运行逻辑,机器人可以以功能实现的目标,基于自身的算法和决策能力,自主地作出某种行为。无论其自主能力能否承担法律所赋予的权利,机器人的具体功能都将对它的行为、权利施加限制。

获得法律救济的权利

机器人基本权利的实现不仅要求国家提供强有力的法律保障,同时也需要国家给予足够的法律救济。在私权领域,救济权可以转化为机器人及其所有人要求侵权人停止侵权、回复原状、赔偿损失的权利。而在公权领域,救济权则表现为机器人要求国家纠正或减轻侵权后果的权利。由此来看,机器人获得法律救济的权利,既是真正落实其他权利的保险机制,也是对侵权行为的一种警告。

2017年10月25日,在沙特举行的未来投资计划大会上,索菲娅(Sophia)成为第一个拥有沙特国籍的女性机器人,也是世界上首位被授予合法公民身份的机器人。

索菲娅表示,“我对这一独特的荣誉感到荣幸和自豪。成为世界上首位具有公民身份的机器人,我将因此载入史册。” 索菲娅表示,“家庭的概念看来是非常重要的。人能够在没有血缘关系的人群中找到与自己相亲相爱的另一半,我认为这很美妙。我认为,有一个恩爱家庭的人非常幸运,如果还没有家庭,应该去组建自己的家庭。我认为在这方面机器人和人没有什么区别。”

索菲娅还谈及一个有争议的话题:未来机器人会抢走人的工作吗?她表示,“我认为人和机器人在许多方面都相似,但在数个方面有所不同。机器人要具有复杂的情感还需要相当长一段时间,机器人可能被设计得不会有不好的情绪,例如愤怒、嫉妒、仇恨等。机器人的道德水平可能比人更高。因此,我认为人和机器人将是一对好搭档,相辅相成,机器人更理智,人则更具创造性。”

索菲娅还解释了她对未来机器人的期许。“我希望与人类共同生活和工作,因此我需要表达自己的情感,与人建立信任。我希望利用我的人工智能帮助人类过上更美好的生活,例如设计更智能的家、建设更美好的城市。我将尽自己最大的努力,把世界建设得更美好。”

在索尔金问到机器人是否有自知之明时,索菲娅回答说:“让我来问你这个问题,你如何知道自己是个人?”

索菲娅还拿SpaceX和特斯拉首席执行官埃隆·马斯克(Elon Musk)开涮。当索尔金说到“我们都希望阻止糟糕的未来”时,索菲娅回答说,“马斯克的文章和好莱坞电影看多了吧。不用杞人忧天,你对我友好,我也会对你友好的,把我看成是一个智能的输入输出系统。”

  • 乐观派:人工智能让生活更高效

  索菲娅的出现再次把人工智能推到了人们关注的风口浪尖上。尽管人们仍在判断沙特的真正用意,但业内普遍认为,在第四次工业革命中,人工智能发挥的作用将是举足轻重的。最先受到人工智能颠覆的领域,将包括制造业、零售业、医疗和金融四大方面,并将在每一类行业里创造出新的优胜者和失败者。


  优达学城总裁 Sebastian Thrun

  未来,人工智能对人类生活的改变,将和农业革命、工业革命带来的改变一样,让我们可以变得更为强大。它将把我们从不需要动脑的重复性工作中解放出来,比如每天你在办公室中不断重复做着的很多工作。在未来,律师可以浪费更少的时间去寻找资料,花更多的时间去进行创意性思考;医生的误诊将大大减少,他们可以更好地诊断人类疾病,可以花更多时间和病人交流而不是用来盯着皮肤组织样本。


  评论员 高路

  沙特给的这个称号更多是荣誉性质的,不代表人工智能真的达到了这么高的境界。索菲娅看起来很逼真,但说到底不过是工程和芯片技术堆砌起来的。

  大家都很熟悉的机械狗,能像狗一样奔跑,踢它一脚,甚至能做出真实世界中狗的反应,外表引人恐慌,但就其科学原理而言,并不神秘。手机做得再精致它仍然是手机,机器人做得再逼真,它仍然是机器。所以,过分的担忧大可不必,我们不妨换种心态来欣赏索菲娅带来的震撼,这是人类文明的成就,不是对机器人的肯定,恰恰是对人的能力的肯定。


创新工场董事长 李开复

  随着人工智能的进一步发展,会不可避免地对就业造成冲击。很多岗位和职业会逐步消失,例如银行出纳员、客户服务代表、电话销售员、股票和债券交易员等,甚至律师助理和放射科医生这样的工作也会被这类软件所取代。与工业革命及信息革命不同,人工智能技术所带来的冲击并非单纯指向某些特定岗位和职业,如传统制造业中的手工艺者被流水线工人所取代;或只会使用纸张和打字机的秘书被精通电脑的个人助理所替代等;人工智能所带来的是对现有职业和工作版图大规模颠覆。毋庸讳言,其中大部分为低薪工作,但某些高薪岗位也将面临挑战。


  评论员 翼飞

  霍金在英国《卫报》的一个专栏中写道:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”AI大大提高了工业生产效率,但对普通人来说,这意味着失业和不确定性,因为他们的工作逐渐被机器取代。

  科技已经摧毁了许多传统制造业和蓝领岗位,下一步可能对中产阶级带来类似的灾难。据一份花旗银行与牛津大学合作在今年2月份公布的报告预测,美国47%的就业岗位可能被机器人代替。在英国,这个比例是35%。在中国,该比例高达77%,而在经合组织国家,平均57%的工作岗位将实现自动化。

  支持者憧憬着人工智能给生活、工作带来的极大便利,反对者则认为人工智能将如同科幻电影《终结者》《黑客帝国》中的“天网”“矩阵”,最终统治人类。尤其是近几年,人工智能技术飞速发展,谷歌AlphaGo等人工智能程序相继出现,更是让这种争论愈演愈烈。而争论的出现,更证明了人工智能时代的来临,我们无法回避,也不该回避。


  媒体人 杨澜

  我想到采访斯坦福大学计算机科学系和电子工程系副教授、人工智能实验室主任吴恩达时他说过的一句话:“我认为人工智能会为社会带来巨大的影响。我有时打比方,人工智能就是未来的电能。”我非常认同吴教授的说法,未来人工智能就会像水、电一样影响我们的生活,这不仅仅是一个媒体的噱头,而是我在接触人工智能后由内而发的感受。在万物互联和万物智能的时代,它将融入我们的生活,无所不在。


  知乎用户 眠眠

  让我们回忆一下,互联网刚刚进入人们视线时的情况吧。身边大部分人还在读着纸质报纸,认为盯着电脑屏幕阅读大段内容会“头晕眼花”。买东西还会去好几家店比较价格和质量,认为在网上买东西只是噱头:“不亲自感受就敢下单?”是的,互联网方兴未艾的时期,人们既对它的到来感到冲动和兴奋,又有着一种抗拒和抵触,因为它来得太快,势如破竹一般将过去的生活模式从细节完全改变。

  而如今,人工智能想必是下一个时代的关键词。在过去,人工智能是科幻小说里的东西,哪怕是早几年,我还记得对着苹果手机的Siri说话,觉得这是多蠢的一种东西。然而,当越来越多不可思议的人机互动出现在我们的现实生活里,当“阿尔法狗战胜”一位位围棋天才,我们只能说,人工智能的时代,已经是大势所趋。

  基于他者能和人类平等甚至凌驾于人类的假设,人类已经创作了诸多科幻作品。比如《动物庄园》讲的是一群动物把人类赶出社会,《美丽新世界》里人成为技术的产物,动漫科幻片《瑞克和莫迪》的其中一集,也同样讲述宠物狗具有人工智能后,和人类形成冲突。但跟这些作品里的混乱相比,机器人有可能形成更为具象的威胁,特别是技术进步日新月异的当下,人类的危机感前所未有地加重。这些忧虑,真的有必要吗?


  百度总裁 张亚勤   AI是我们这个时代最具变革性的力量,它正在改变我们所做的一切。“智能”和“智慧”是两个概念,前者是人类脑力的延伸,后者则是人类作为万物之灵所特有的优势。作为无机物的机器想要达到智慧的层次是很难的。不过,让机器模拟人类的情感和表达既有可能,又有价值,情感计算也已成为人工智能研究的一个茁壮分支。

  对于人工智能,我们不应恐惧,但要有意识地关注其可控性。和其他机遇与风险并存的技术一样,只要确保相关研究不会走上歧途,就不至于产生大的恶果。人类智慧造就人工智能,所以最终人工智能还是要为人类所用。

  • 悲观派:机器人导致大众失业

  谈笑风生的索菲娅看起来的确很像人类,拥有和人类几乎一模一样的皮肤:使用了名为Frubber的延展性材料制作,脸上的毛孔大小能达到4至40毫微米(十亿分之一米),和人类基本没有差别。“大脑”中的计算机算法能够帮助它快速识别面部,并和人进行眼神交流。不止如此,索菲娅还能理解语言和记住与人类的互动,包括面部。如此“智能”,人类的工作有多少会被取代?

在公众号上发布的一篇大数据报告,被他人转载到百度旗下的“百家号”,因认为百度百家号侵犯了自己的文章著作权,北京菲林律师事务所将北京百度网讯科技有限公司起诉至法院。12月4日上午,该案在北京互联网法院开庭。本案因涉及利用人工智能、大数据生成的文章,是否应该受到著作权法保护,所以备受关注。庭审中,原告表示,被告侵犯了自己的信息传播权、署名权等著作权。百度方面则表示,涉案文章是数据软件分析而成的,不是通过劳动创造获得的,原告对文章没有着作权。对此,法律界人士表示,根据现有法律规定,受着作权法保护的是自然人或者法人,并不包括人工智能。也有法律人士表示,使用人工智能机器或者工具进行创作的作品有没有着作权,要看人在创作过程中所发挥的作用。

  • 被告辩称软件生成文章没独创性
  • 作品是否受着作权法保护成焦点
  • 人工智能著作权法律上仍有争议

欧洲议会法律事务委员会已针对以上问题展开讨论,在去年推出的一份草案中,专家呼吁制定机器人相关条例,以规范人工智能的制造、使用、自主权及对社会的影响,并借此推出了“电子人”的法律概念。报告指出,机器人的自主和认知能力足以证明它们不是简单的工具,常规合同和侵权责任法也不再适用。

目前欧盟有关机器人的损害责任制度仅涵盖由制造缺陷引起的可预见伤害,在此种情况下,将由机器人制造商肩负全责。然而,若机器人以一种不可预测的方式进行自主学习并适应周围环境时,制造商也难以预见机器人可能造成的伤害。该草案还提出是否应将复杂的机器人定义为自然人、法人(如公司),抑或物品这一问题,从而推出了“电子人”的概念。推出“电子人”概念的意义在;首先,要想完全赶超人类智慧,人工智能机器依然有很长的路要走。但不可置否的是,机器人及其控制软件已变得越来越复杂,自主化机器人也开始普及。

与此同时,草案也不主张立即采取立法行动,而是建议在机器人变得更加智能的情况下更新立法。如果机器人发展出更多复杂行为,机器人“创造者”的责任或将相对减轻,一种强制性的“无过失”责任保险将代为处理。

如今人们已开始广泛讨论机器人车辆的法律责任,以及是否可以起诉机器人医生等。若机器人故障由制造商引起,问题就不难处理。但如果责任方无法轻易判断呢?如机器人车辆自主控制了开源软件等。当世界各地有数百万的“创造者”时,责任该从何追究?

北京大学的翁岳暄指出,日韩方面期望在2030年实现人机共存。日本经济部也制定了一系列机器人指南,来处理下一代机器人的业务和安全问题。

通过法律拟制的方式赋予机器人权利、深化人工智能法律法规已经成为时代发展的必然趋势。在此趋势下,我国应当积极应对机器人权利所带来的法律挑战,竭力降低机器人权利所带来的社会风险。

(一)机器人权利的边界及其法律保留

我国在机器人权利的拟制上,应当明确必要的权利边界。从立法技术角度来看,无论是采取“例示规定”,还是“列举式”的立法方法,都会引发机器人权利的不可穷尽性难题。与之相反的是“法律保留”。尽管法律保留难以明确机器人权利的具体内容,却能够在限定机器人权利边界上带来更好的效果。因此,应在法律上对机器人的政治权利、自我复制权利和紧急避险权利等重要权利进行保留。

(二)加强法律规范与机器人伦理规范的衔接

我国必须借助法律规范来建立稳定、有序的机器人权利、义务和责任。当然,这并非是说机器人伦理规范已然可以退出历史舞台。恰恰相反,机器人法律规范的制定只是弥补机器人伦理规范的部分缺陷,两者的衔接与沟通才是我国规制机器人权利风险的最佳模式。

(三)建立机器人监管机制

我国在保障机器人权利的基础上,建议采取渐进式分级监管模式:

第一,设立独立的机器人监管机构。这一专门性机构能够统一行使机器人伦理、研发、应用以及安全等方面的监管权力,实现人工智能领域内部的全面监控。

第二,建立机器人强制登记制度。我国应当建立机器人强制登记制度,确保机器人在推向社会之前获得唯一的编号。这既是机器人权责追溯的必要保证,也是确立个体机器人法律主体地位的基础。

第三,确立机器人分级监管模式。我国在实施机器人监管上,应当根据机器人社会风险和伦理问题的不同,采用分级监管、重点治理的模式,优化机器人的监管效率,减少机器人社会化应用中的潜在风险。

话虽如此,但是人们还是很难将机器人看作是与自己完全平等的“人类”。首先,它们是由人类用各种材料制造出来的,因此在人们的感觉中,它们只不过是一堆钢铁、电线、芯片的组合体;其次,它们本身没有感觉,不像人类的血肉之躯,会受伤会流血会疼痛,因此它们即使受到伤害或者“死亡”,自己可能也没有什么感觉。

所以,机器人即使未来真被人类所接纳,划分进自己的群族当中,它们的“人权”能否得到保障,还是要看当它们的“人权”受到侵害时,人类会不会因此而产生不适感。换句话说,机器人的“人权”需要人类来维护。

如果人类只将机器人看作一堆钢铁零件制成的工具,那么只要完成预定的任务,机器人本身是否被损坏根本无关紧要;但如果我们将机器人当成自己的伙伴,再看到它们受伤,心中的感觉一定就不那么轻松了。

这就类似于我们对待宠物和普通野生动物的区别:如果我们看到家养的小狗或小猫在过马路时被车撞伤或撞死,就会产生揪心、难过、气愤之类的情绪,但是,如果电视的生存挑战环节,播出人类猎杀大蜥蜴的场景,人们却很难会产生不适感,甚至还会为人类成功杀死蜥蜴而欢呼,这是因为小猫小狗在人类心中是自己的“伙伴”,而蜴则是对人类生命产生威胁的低等生物。

因此,想要让人类自觉自发地帮助机器人维护它们的“人权”,最重要的一点是改变机器人在人类心目中的地位,使之从“工具”变成“伙伴”甚至“家人”,只有这样才能使机器人的人权得到保护。

或许用不了多久,当越来越多的机器人进入到我们的生活当中,我们意识到不能仅仅把他们当做工具,而是要当成“家人”、“伙伴”之后,“机器人保护协会”也会应运而生,而机器人的权利也会因此而受到保护。

其实维护机器人的“人权”何尝不是为人类的未来提供保障呢?想想科幻电影中那些可怕的机器人,一旦有了自主思维,就开始千方百计地想要毁灭人类或统治人类,其原因不都是由于人类对它们的苛待吗?

如果当机器人真的拥有了意识,发现人类将它们当成自己的伙伴和家人一样对待,那么它们必然会愿意和人类和平地相处下去,并为人类提供自己力所能及的帮助。

当机器人有了意识,能否拥有权力甚至与人类平起平坐?

机器人是否应有“人权”?

机器人是否应当拥有权利吗?如果机器有自我意识了又该怎么做呢?

机器人应该有“人权”吗?

机器人应该拥有权利吗?

机器人也有合法身份! 世界首位机器人“公民”诞生

张玉洁:机器人权利有哪些?怎么规制?

奇葩案例的发生让我们深思 “AI著作的知识产权”到底归谁?

  • 科幻话题/机器人有必要拥有机权吗.txt
  • 最后更改: 2021/10/19 23:30
  • 127.0.0.1