人工智能的伦理思考范例6篇

前言:中文期刊网精心挑选了人工智能的伦理思考范文供你参考和学习,希望我们的参考范文能激发你的文章创作灵感,欢迎阅读。

人工智能的伦理思考

人工智能的伦理思考范文1

因为他相信,“未来是属于人工智能的。”

人工智能,Artificial Intelligence,英文缩写AI。在人工智能领域的经典教材,出版于2013年的《人工智能:一种现代的方法(第3版)》中,著名人工智能专家罗素和诺威格从4个方面对人工智能进行了定义,即:能够像人一样思考、像人一样行动、合理地思考、合理地行动的机器。

人机大战只是人工智能开始改变人们生活的一个小例子,事实上,以往只存在于科幻电影的未来世界,正在加速迎面而来,和现实热烈拥抱,甚至让人猝不及防。

“苹果Siri、新闻阅读软件、在线翻译等,都是人工智能技术的代表。”为人工智能摇旗呐喊的不止创新工场创始人李开复一人,微软CEO萨提亚・纳德拉、谷歌CEO桑达尔・皮查伊、百度创始人李彦宏、物理学家斯蒂芬・威廉・霍金……但凡人们叫得上名号的科技公司巨头、计算机科学家无不在向人们诉说着同样一个事实,“人工智能引领的第四次技术革命已经进入爆发的前夜”。

聚焦今天这个时间点,人工智能最耀眼的还是商业化的起步。随着国外科技大佬对于人工智能各种应用场景的开发,国内互联网三巨头BAT也在加速布局,一场真正的AI商业化战争,已经蓄势待发。

每一次技术革命都将带来全球竞争格局的重塑,这一次,中国幸运地与世界站在了同一条起跑线上。伴随着“人工智能”首次被写入全国政府工作报告,以及《“互联网+”人工智能三年行动实施方案》的出台,占据数据和场景优势的中国正在筹划部署人工智能的顶层设计。

人工智能的伦理思考范文2

关键词:科幻;伦理;爱

中图分类号:J905 文献标识码:A 文章编号:1005-5312(2013)20-0140-01

一、科幻世界

影片为我们营造了一个未来的、虚构的科幻世界。无论是影片伊始科学家们在研究室里展示新型人工智能机器人,讨论“能够疼爱父母”的机器人小孩,还是对未来世界和未来“人类”的构想与描绘,都是对科学、对科技的大胆假设。影片中对高科技的彰显,可谓让人应接不暇。

在影片虚构的未来世界里,人工智能机器人为人类提供了各种各样的服务,他们拥有与人类一样的外形,有思想、有意识甚至有爱有疼痛。他们与人类一样来自各行各业,为社会为人类的发展提供服务。这一切都是对人工智能这门科学发展到现阶段的美好展望。

影片中对冰封2000年后的“未来”的描绘一样让我心旷神怡。未来人类的形象、智慧,未来世界的境况似乎都凌驾于现实之上又以优越于现实的形式而存在,这一切都显示了科幻的美好。

二、伦理困境

观影过程中我常有这样一种想法:《人工智能》与其说是一部科幻片,不如说是一部极具科幻色彩的。《人工智能》对伦理的思考用蒙太奇的手法通过几个镜头的表达层层推进。第一个镜头是大卫被马丁激怒吞食菠菜。第二个镜头是大卫与马丁落水后被遗弃游泳池的画面。第三个镜头则是大卫被莫妮卡永远地抛弃时的情景。

莫妮卡和亨利选择了机器孩子大卫替代自己沉睡不醒的孩子马丁,起初莫妮卡十分的抵触、反对,大卫的人工智能系统也未被激活,他的行动例如大笑声都十分僵硬的,直至莫妮卡决定接受他并且说出了激活码的瞬间,大卫喊出了“妈妈”这个让人心碎的单词。大卫是机器,马丁是人,他鄙视大卫,在马丁的眼中,大卫仅仅是一个新开发的。马丁时刻压迫着大卫作为一个“人”所应有的那份权利。斯皮尔伯格用了大量的细节镜头来表现这种人与机器人之间的不平等性。

影片中对《机器屠宰场》的描绘是矛盾冲突的一个顶点。与人类有着类似外形的机器人以种种酷刑和死亡为代价为人类进行表演。机器人的形象与真人相似度极高,这样的画面让我想起纳粹对犹太人的屠杀同类的情景。在这里,影片似乎在昭示:我们生活的现实世界比电影残酷得多。且不论其他生物,每年有多少孩子在饥饿中丧生,在病痛中,但只因为他是黑人、是孤儿、是残疾,我们就悄悄地背过头,把自己的疼痛感应器关掉了。

三、爱的轮回

大卫的故事本身就是一种爱的轮回。他极尽全力表现着自己的爱,祈求一种守恒和轮回能招致他所期盼的爱。大卫的追求似乎是一个悖论:他希望自己成为一个最普通的真人小孩,他觉得自己是独一无二的,这二者只有在爱的领域内才是互不矛盾的表述。任何一个普通的甚至是丑陋的、笨拙的孩子,都拥有一种自信,觉得自己是父母独一无二的,不可替代的宝贝。而任何一个平凡的人,都有可能在爱人的眼里成为世界的中心。而这种独特性受到侵犯的时,爱就被动摇。这就是为什么说大卫看到与自己同名同姓、同样相貌身高的机器人时失控的、怒不可抑砸毁对方,并几近崩溃地反复喊道:“你不能占有她,我是独一无二的。”这并不是单纯的嫉妒而是一个人守护自身独特存在性的需求,这也是大卫在无法摧毁更多机器人时选择自我毁灭的缘由。

人工智能的伦理思考范文3

人工智能的监管与责任,其实和安全与公共福利一样,都像是硬币的正反面。监管的目的,是为了确保人工智能系统尽可能的安全;而责任,其实就是为了当人工智能系统出错时,我们可以找到可以追究问题的人,或者再说的准确一点儿,就是找谁可以获得法律上的赔偿。

应该向谁追责呢?

让我们先来谈谈责任问题吧。首先,我们可以模拟一个侵权(民事)责任问题,想象下,在不远的将来可能会发生这样一个场景:一辆无人驾驶拖拉机原本应该按照指令在A农民的田里播种,但是奇怪的是,它却把种子播种到了B农民家的田里。

让我们先假设A农民是完全按照操作手册来使用那辆无人播种拖拉机的,同时,我们也假设A农民无需再做其他额外的操作,比如在农田交界处设置无线电信标,等等。那么现在,假设农民B要来控告这次错误播种事件(我们暂且不考虑诸如滋扰和侵犯等问题),会遇到哪些问题呢?。

实际上,有很多问题需要被回答,这个事故是农民A的责任吗?可能不是;那么,是无人播种拖拉机厂商的责任吗?有可能,但在此之前,我们是不是该明确与这些问题相关的责任和标准呢?比如无人播种拖拉机的行业标准是什么,制造商的产品规格是否符合相关标准呢?不仅如此,如果自己的土地被他人种植上了其他农作物,这是否算是财产损失,又是否能否追溯经济赔偿呢?

在一连串问题之前,我们其实是先假定了无人播种拖拉机里面的系统软件是由制造商开发的。那么接下来又有新的问题出现了,如果那套人工智能系统是由第三方开发公司完成开发的,该如何处理?还有,系统内部的软件代码是由多人合作完成的,又该如何界定各自的职责?

随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会展示出更多我们无法预料到的行为,值得一提的是,这些行为没有人可能预测得到,甚至包括人工智能系统的创造者也无法预料。但重要的是,可预见性,其实是处理责任过失问题中一个非常关键的组成部分。

为了能够让读者更好地理解可预见性问题,我们才会假设了上面那个无人播种拖拉机的案例,或许十年、二十年之后,人工智能已经不再是简单的种错庄稼这件事儿了,它可能会是某个意外让人们受伤,更严重一些,人工智能可能会不小心杀人。所以,如果我们的法律无法适时作出改变,那么未来将会导致更多问题出现。就拿上面那个人工智能种错庄稼的事情为例,当无法实现可预见性,最终的结果就是没人承担责任!

责怪人工智能机器人

为什么我们不干脆去责怪机器人呢?毕竟,关于人工智能人格也有过讨论,而且人工智能系统本身也有担负刑事责任的可能。

但是,这种方法在实际应用时又有什么不一样呢?这里,还是借用别人曾经说过的一句话吧。“人工智能系统真的会像著名小说家艾萨克·阿西莫夫笔下的机器管家那样吗?遵守法律,遵从道德良知,还能保护银行存款?”

我们姑且不去讨论人工智能系统是否可以被起诉,但人工智能制造商和开发商们必须受到监管。只有这样,才有可能将一些无法归责的各方,用严格责任赔偿(注:严格责任赔偿是指只要造成了损害,不论行为人有无过错,都要承担赔偿责任。常见的适用于无过错责任原则的,有从事高压、剧毒、高速、放射等作业造成他人损害的。工伤是典型的适用无过错责任原则的,也就是说只要劳动者在工作期间因公受伤了,排除劳动者个人主观故意的因素之外,雇用单位无论有无过错都要承担工伤赔偿的责任的。)约束起来,

实际上,在我们的日常生活里,严格责任赔偿已经应用到了很多地方。当然除了这种责任赔偿之外,如果需要对人工智能追责,其实也可以采用无过错责任赔偿和赔偿方案池等方式。

规章制度

如果从监管的角度来看人工智能,那么你会发现,严格的安全标准,以及建立完善的安全认证流程也都是非常必要的。不过,如何设计一个合适的机构与流程框架,并且让这个框架得以有效运行,依然是一个非常棘手的问题。

人工智能领域复杂难懂,而且外部世界对于人工智能研发圈子普遍缺乏认识,这也就是人工智能专家需要尽快创建行业框架的原因所在。实际上,这里所说的框架,就是规章制度,说通俗些也就是游戏规则。因此,这意味着人工智能顾问委员会需要和政府一起,尽快立法,建设行业标准。

我们不得不承认,人工智能行业存在巨大的潜在效益;但是标准和流程,需要不断的创建、更新、并且执行,这样才能达到一种持续性平衡,继而最大限度地提高公共福利和安全;当然,也只有这样,才不会扼杀创新,更不会出现不必要的法律负担。

事实上,站在国家的角度上,建立任何一个法律框架或游戏规则,都必须要足够灵活,监管机构不仅需要考虑到本国利益,也要从全球角度出发。这意味着在某种程度上,你不仅要考虑本国的人工智能产量,以权衡进口其他各国人工智能技术,同时,你还要思考该如何任何不同国家之间的安全标准和认证,必要的时候,你是否还需要遵守未来可能出现的国际条约或公约,等等。所有这一切,远比我们想象的要复杂得多。

人工智能的伦理思考范文4

哈拉瑞在其新书《上帝:明日简史》中预言:人工智能崛起后可能不会毁灭人类,而是接管我们社会的大部分职能,使人类失去生存的目标,让人类变成“无用阶层”,如果这种趋势继续发展下去,谁也无法保证会出现什么后果。

诚然,科学技术的进步为人类生活带来了极大的便利,但不能否认的是,在未来,智能机器人很可能为人类带来了个人价值与伦理方面的巨大挑战。

无用的人类

7月28日,据《每日邮报》报道,澳大利亚机器人公司Fastbrick Robotics推出了一款机器人瓦匠Hadrian X,只要2天时间就能建造起一整栋房屋,而且不需要休息。它强大的生产能力促使它成为了建筑工人最为强劲的竞争对手。强生产性机器人的出现将导致一部分基础性作业的工人失去原本稳定的工作,由此对机器人产生深深的敌意。在其他工作场景中,工业化生产解决了一些基础、繁琐的工作,同时也带来了对个人存在价值的重新审视。

“算了,还是我自己来吧!”在职场中,时常听到工作经验丰富的老员工对职场小白这样说。这句话背后涵盖着很多问题,核心都可以归结到“对协同效率的担忧”。单纯完成基础性工作已经不再适合在如今快速发展的社会中立足,一百多年来在工业革命中发挥重大作用的流水线,一时间也失去了原本稳固的地位。

经济学的主要创立者亚当・斯密在其著作《国富论》中认为,精细的分工可以促进劳动生产力。于是,大多数企业家梦寐以求着将事情细化拆分,让低成本的劳动力也能做。分工的明确以及流水线的顺畅,使得效率和用人成本得到了显而易见的优化。但在今天,这提升似乎变得不那么确定了。

科技的进步将人类从简单的重复性工作中解脱了出来,在免除了员工对枯燥无趣或是危险的任务产生抱怨之外,还提升了企业的生产效率,降低了企业的劳动力成本,使得企业投入更多的人力、财力去争夺更大的市场,而员工也更加注重培养个人技能的不可替代性。这些代替人类工作的机器以各种形态出现在我们身边,除了成型的工业流水线,还有更加智能的扫地机器人、仿生机器人、空中机器人,甚至还有隐藏在屏幕后精准回应客户需求的客服机器人等等。目前,科学家的研究使机器人的功能愈发多样化,逐步从工业机器人向服务机器人和特种机器人进行转变,而其外观形象也愈加逼 真。

那么,这些酷似人类的机器人是否会完全替代人类呢?

国际机器人联合会(IFR)的一份研究显示,先进的机器设备可以提高劳动生产率和产品质量,创造出更多的社会财富,也就必然提供更多的就业机会。任何新事物的出现都有利有弊,只不过利大于弊,很快就得到了人们的认可。

美国麻省理工学院(MIT)一直是机器人科技研究的先驱,曾研究出猎豹、Atlas等轰动世界的军事机器人。8月13日,在全球人工智能与机器人峰会机器人专场上,MIT机器人实验室主任Daniela Rus表示,相较于担心机器人取代人类,人们更应该担心建造机器人的速度还不够快。在中国,到了2050年就只有20%的人仍处于工作年龄,所以更应该加速机器人的生产制造以弥补劳动力的短缺。因此,她提出一个愿景,期待未来的工厂会有更多的机器人跟工人并肩工作,未来机器人会比现在的更加先进。

但是,机器人毕竟还是有弊端的,若机器人被人类赋予了完全自主的思想,那么世界将会变得不再平衡,而这样的日子也并不遥远。

8月2日,俄罗斯研究人员宣布将在未来一年半的时间里,通过分析、模仿人类大脑工作的方式,研发出一款具有情绪的机器人。该机器人不仅能通过设定好的程序或增强学习技术进行学习,像人类一样思考眼下发生了什么事情,并跟上这些事情的节奏,还可以提出相应的问题来实现这些目标,并积极地寻求答案,逐步累积起对人类的信任。

事实证明,智能机器人的发展很有可能在不久的将来使其具备一定的自主思想。这一旦成为现实,势必会像克隆人的出现一样,给人类带来伦理道德的强烈冲击。

从科幻走进现实

“机器人(Robot)”这个词诞生于1920年捷克斯洛伐克作家卡雷尔・恰佩克的科幻小说《罗萨姆的万能机器人》中,是从Robota(捷克文,原意为“劳役、苦工”)和Robotnik(波兰文,原意为“工人”)演变而来。就像诞生于科幻小说之中一样,人们对机器人充满了幻想。也许正是由于机器人定义的模糊,才给了人们充分的想象和创造空间。

然而,凡事都有节制,对机器人的开发也并非没有限制。

早在1940年,为了防止机器人伤害人类,科幻作家阿西莫夫(Isaac Asimov)就提出了 “机器人三原则”:

1、机器人不应伤害人类;

2、机器人应遵守人类的命令,与第一条违背的命令除外;

3、机器人应能保护自己,与第一条相抵触者除外。

学术界一直将这三原则作为开发机器人的伦理性纲领,但对于伦理的挑战从未中断,尤其是在科幻作品中,由于机器人并非只具备生产性,其社会性导致的危机并不仅限于工作层面,更多的是在伦理层面上,因此机器人的存在对人性的冲突引发了人类的恐慌。虽然科幻世界只是一种想象,但人类社会将可能面临这种现实。

科幻小说《罗萨姆的万能机器人》预告着,机器人的发展会对人类社会产生悲剧性影响。2015年的英美剧《真实的人类》和科幻题材的文学作品一样,真正关注的并非高科技的美好,而是可能引发的危机。

《真实的人类》讲述了合成人被繁忙都市中生活的人类广泛使用,而随着合成人与人类越来越相似,人类的行为受到合成人影响而发生变化的故事。合成人并不像人类一样具有情感和逻辑,它们更像是机器,以执行人类命令为天职。然而,剧中一个家庭关系紧张的郊区家庭为了改变生活方式而购买的二手合成人,竟然是具备自我意识的特殊合成人,并非一味顺从他们的奴隶。他们开始意识到,人工智能飞速发展会给人类带来的种种便利与危机,和合成人在一起生活会在伦理道德方面产生可怕的、影响深远的后 果。

随着机器人外表的逼真程度不断向人类靠拢,以及人工智能技术与机器人的不断融合,《真实的人类》涉及的伦理道德问题也不无可能成为现实,包括机器人的社会角色,机器人的行为触及法律,人类将机器人作为奴隶或与机器人产生依恋情感,甚至将机器人当作家庭成员等等一系列的问题。

那么,人们距离这一天究竟还有多远呢?

过去,即便科技进步迅猛,人们依旧认为机器人的创造能力和学习能力与人类相比还有着很大的差距,因此对于机器人的智能程度和发展前景也存在质疑。但随着人们对机器人技术智能化本质认识的加深,人工智能和云计算技术已经在机器人的应用上得到了体现,并逐渐向人类活动的各个领域渗透,机器人将很有可能获取近乎人类的创造能力和学习能力。

目前,以谷歌为代表的科技企业和科学家们正试图以人工智能来弥补机器人在创造和学习方面的不足,并在云计算服务中扮演起越来越重要的角色。谷歌的人工智能程序使用了机器学习技术,使电脑可以从数据流当中提取数据,进行抽象处理,翻译文本内容以及易于理解的图片,包括标记,以及通过面部表情识别情绪等等,从而归纳出有意义的信息。

机器人不仅可以进行人机对话,甚至还可以写小说。

通过一场人机大战,Alpha Go向人们展示了数学的强大力量,而美国研究人员发现,数学竟也可以与文学走到一起,甚至相互转化,使机器人具备一定的创造能力。7月,根据外媒报道,美国佛蒙特和阿德莱德大学的数学家和计算机科学家们从电子书库“古腾堡计划”中挑选了大约2000部英文小说输入计算机,以人工智能的方式分析故事中主人公的情感曲线,结果验证了美国黑色幽默作家库尔特・冯内古特的著名观点,即每一个小说故事都可以用二维图表的方式表示出来,并且这些曲线有许多共同点。

人工智能的伦理思考范文5

Wall-E懂得欣赏落日余晖,懂得观看芭芭拉・史翠珊的《你好,多莉》,也懂得十指交握的情意,但它仍是Waste AllocationLoad Lifters-Earth(地球废品分装员)――一个有任务指令却又游离在控制边缘的机器人。随着人类对于人工智能的研究渐渐深入,机器人在工业上的应用已经相当普遍,而在未来,机器人走进人类生活也并不是遥不可及的事情。从电影表层挖掘下去,Wall-E的“机器情感”成为被探讨的关键词。

《机器人总动员》最厉害的一点在于,它简化了美式主流动画的对白叙事性,尤其是影片的前40分钟,甚至抛弃了语言――这曾是引领观众进入剧情的第一要素,从而用“那种天衣无缝的华丽感,远远超越了动画片的境界”,语言被简化之后,音效成为读懂机器人情感的重要工具,《机器人总动员》之所以得人缘,就因为处理这一点的人性化。曾经为《星球大战》的R2-D2制作音效的本?贝尔特是本片的声效设计师,他的高明之处是不仅用声音创造个机器《世界,而是让这些声音在带有明显金属、机械的生硬同时,还能传达出人类一样起伏多变的真挚情感,这也是Wall-E感动观众的原因--。

早期电影中的机器人形象只是一件会活动的道具,其功用是为观众标明电影发生在未来的年代,或者是给我们一些发笑的噱头。1927年的《大都会》是最早出现机器人的电影,机器人叫做玛丽亚,它是一个会在工人中制造混乱的间谍,还会跳舞。后来的《星球大战》中,圆头圆脑的R2-D2虽然不会说话,但有自己的情感,而且很忠实,其实更像是一只宠物。另一个C-3PO倒是会说话,它会3万种语言,但是它行事慌张,说话怪里怪气,其实是一个小丑。这些形象的单薄看似合情合理,因为在我们的观念中,机器人即使具有相当的智能,它们也没有情感的驱动,只会根据预设好的逻辑行事,所以在思想千变万化的人类看来,机器人的固有属性没有给它们在银幕上预留很大的表演空间,自然会显得很古板。

直到《终结者》的出现,施瓦辛格扮演的机器人T800不但具有强大的攻击力和完美的智商,更重要的是它渐渐地学会了以人的方式来思考,第二集中的T2在性格中渐渐透出温暖亲和的一面,这大概是讨好观众的一种好方法,也多少说明人类对于人工智能的预期还没有摆脱机械时代的印象:冷酷的性格、简单的逻辑和强力的机械系统,在影片的结尾,T2牺牲了自己以换取人类安宁的明天。为什么为人类的利益就要灭机器人自己?在阿西莫夫的三大定律中,我们找不到这样的依据。导演詹姆斯?卡梅隆很狡猾地做调整,毕竟,保持人类的尊严和地位是大多数人都会认同的。

迄今为止,很少有科幻电影在涉及到机器人这个题材时是以喜剧结尾的。不仅是因为“机器人”这个词本身就具有无穷的悲剧性,更在于人类对机器人的创造在某种程度上就相当于《圣经》里上帝对人的创造。著名科幻作家阿西莫夫曾提出了机器人三大定律:一、机器人不得伤害人类或坐视人类受到伤害。二、机器人必须服从人类的命令。三、机器人必须尽力保护自己。这三条定律按照从高到低的权限执行,为后人研究机器人和人工智能提供了一个道德伦理上的基础,其实三大定律投射出人类对创造机器人所存有的重重疑虑。

人工智能的伦理思考范文6

关键词:科技;哲学;未来;人类生存

几千年来,尤其是近几百年来,哲学家和科学家们都一直在追求一种确定性知识,企图用真理代替谬误,用知识代替意见。这往往产生两方面的结果:一方面导致哲学和科学研究重点的转移,而这必然带来人们关注的问题转移;另一方面必将导致人们在认识和实践中研究方法的变革与创新。其结果是,促使人类认识的深化,从而带来科技的进步。

在文艺复兴以及思想启蒙之后,现代科学的理性思维已经建立起来。现代科学的蓬勃发展表明:早期的一些哲学家、科学家们在获得确定性的知识的过程中,不断受到重重挑战。鉴于科技的日新月异、文化的多元发展,本文试图分析人类未来的动态发展,探究科学、社会与人类未来的交互作用。

一、人类社会生存的现状与危机

关于“人类灭绝”、“世界末日”的谈论一直是热门话题,从2012年广为流传的玛雅人世界末日的预言,到层出不穷的灾难题材影片,这一话题已经成为人们日益关注的内容,也反映出人们内心深处无比的焦虑与恐慌。近来,牛津大学人类未来研究所一个由数学家、哲学家和科学家组成的研究小组表示,越来越多的证据表明,人类对高科技的依赖可能给自身带来灭顶之灾,而这种情况最快于下个世纪出现。牛津大学人类未来研究所所长尼克·博斯特罗姆在接受网络采访时表示:“人类的科技能力与人类运用这些能力的智慧正在展开一场重大比赛,我担心前者可能会遥遥领先于后者。”博斯特罗姆称,实际经验和科学研究表明,在未来的一个世纪中,行星撞击地球、火山爆发、核爆炸等灾害并不足以威胁人类的生存,人类面临的最大威胁来自科技创新带来的“不确定因素”。他解释说,人类对于最新科技的了解并不完善,而正是那些人类没有掌握的“未知因素”最有可能导致人类灭绝。

二、对危机追根溯源

现代科技中的合成生物学、纳米技术和人工智能等高新技术很有可能有一天会变成人类的敌人,并给人们带来灭顶之灾。大多数学者认为,依赖高科技极有可能会给人类带来灭顶之灾。理由如下:

一方面,人类运用科技的智慧总是无法跟上飞速发展的科技能力,人类在发现并建立了牛顿经典力学体系之后有过一段时期的合理利用,但进入量子力学等领域之后,人类却无法对其进行合理的运用。就目前的情况来说,合成生物学、纳米技术、人工智能等前沿科技的实际应用,只是这些学科真正能力的冰山一角。以合成生物学为例,合成生物学(synthetic biology),最初由Hobom B.于1980年提出来表述基因重组技术的,随着分子系统生物学的发展,2000年E. Kool在美国化学年会上重新提出来,2003年国际上定义为基于系统生物学的遗传工程和工程方法的人工生物系统研究,从基因片段、人工碱基DNA合成生物学的研究分子、基因调控网络与信号传导路径到细胞的人工设计与合成,类似于现代集成型建筑工程,将工程学原理与方法应用于遗传工程与细胞工程等生物技术领域,合成生物学、计算生物学与化学生物学一同构成系统生物技术的方法基础。然而,许多人只看到了这种做法的种种益处,却没有发现其背后的隐患,或者说即便看到了背后的隐患,如伦理学上的争议等,却依然以科学的名义继续向前。

另一方面,人类的科技水平是不断发展的,然而科技水平的发展并不会顾及运用者的能力与智慧。当科技的发展超出人类智慧的驾驭范围和使用能力范围之外,科技仍将继续发展。人类最终无法控制科技以及无法应对科技带来的问题,高科技将极有可能使人类灭亡。还有一种情况就是科技的智慧超越了人类的智慧,当合成生物学与人工智能结合之后,依据强大的计算能力和没有道德伦理限制的执行力,人类是很难与人工智能抗衡的,特别是在人类过度依赖于高科技产品,进入数字化生活之后,这一隐患逐步加大,我们很难想象有一天全世界的网络同时崩溃,电子产品全部失灵到底会带来怎样的灾难,在长期依赖电子产品而丧失一些基本生活能力的今天,这一问题仍未得到足够的重视。

三、假设与反驳

虽然这一观点很难被反对,但是总有那么一些反对的理由存在。比如,有些学者认为,人类总是能驾驭科技的,人一定会注意到这些问题并有效地进行避免措施的,人工智能是无法超越人脑的机能的等等。对于这些观点,另一些学者反驳的理由是:负责科技的发展的人是不会顾及使用者是否可以驾驭的。作为发展科技的人,除了有基本的道德伦理观可以限制其不将技术用于制造灾难以外,我们很难限制其行为。上海的大学宿舍毒杀舍友的案例就是说明这一问题很好的例证。甚至有学者更加怀疑有些科学工作者可以预见到科技会给人类带来的灾难隐患,以及极度怀疑在发现这些隐患后是否能终止某项科学技术的研究。因为对于他们而言,技术的发展意味着他们人生的成就。试想,如果人类没有原子弹的话,生活会不会更加美好?原子弹对我们而言是必要的吗?

比起让人望而生畏的高科技,或许大自然的山水草木会更让人觉得心旷神怡,鸟语花香、清泉流水更让人觉得亲近。因为它们才是人类的伙伴,是人类永恒的家园。

参考文献:

[1] 生物学的新军——合成生物学-生物学通报,2011年第4期(46).

[2] 徐飞等.科技文明的代价-科技发展的负面效应与对策研究.山东教育出版社,1999.

[3] 谢长生.人类文明的基石:材料科学技术.华中理工大学出版社,2000.

[4] 杨庆旺.科技上下五千年.哈尔滨船舶工程学院社,1994.

[5] 肖飞.科技时代:人类文明发展思考.中国人口出版社,1998.

[7] 库浩.人与地球共存亡.天津科技翻译出版公司,1998.