|
|
马上注册,结识高手,享用更多资源,轻松玩转三维网社区。
您需要 登录 才可以下载或查看,没有帐号?注册
x
作为国际人工智能领域著名的科学家、世界上设计和制造“人工大脑”领域的领军人物,美国犹他州立大学计算机系教授雨果·德·加里斯(Hugo de Garis)日前说:“最折磨我的道德问题是:如果推动人工智能研究最终带来几十亿人死亡将怎么办?如果你肯定这将是所需的代价你还会继续吗?”: V' @' n* j7 m( S& g6 o, l! d8 L
) X5 T5 L4 C- t* ? 加里斯的著作《智能简史——谁会替代人类成为主导物种》一书,刚刚由清华大学出版社出版。在书中,加里斯就人工智能技术的发展现状以及这项技术带来的道德思考进行了详细阐述,《科学时报》记者日前采访了正在北京访问的加里斯。; E; |1 C& A5 ?0 r5 ?# e p4 c
8 t; O; M5 {0 T* Z- ` 《科学时报》:现在的机器人智慧最高达到什么程度?
( l4 d, L1 R( Z; K9 e1 M
' u/ k" e) |0 l. b4 ^! ? 加里斯:现在,美国IBM公司对这方面工作很感兴趣,做出的人工智能大脑已经非常接近人类的大脑:可以模拟人脑的神经,可以移植到超级电脑里。人的大脑是怎么工作,怎么得到信息,怎么思考问题的,查明这些原理后,将来就能进一步制造像人一样会思考的人工智能机器人。
I' h. Z2 y0 o4 j" t6 J& g' i3 v: A: A
现在的技术水平,可以通过手术给人的眼部或耳朵植入装置,使盲人或聋哑人能通过它们“看到”或“听到”外界信息。+ j+ \! T6 f+ F* n9 J
+ K0 A: s, Y2 f% x 还有,现在非常有用的智能产品是车载卫星导航系统,它会帮人选择从A地到B地一条合适的路径。
3 M3 g7 G* O4 m# ^# j; d& y, @ ]( }& c1 m( |) z" R; o: K) N
《科学时报》:你认为现在人们对人工智能最大的误解是什么?3 u; L- k) \1 |" Z, ~4 h, K
# C! O! R, U7 b1 |. ]2 _" {4 i* T 加里斯:很多人期望机器人能够帮助人类,但机器人终归是机器人,是人类造出来的,它怎么可能超越人类呢!它只能替人类做一些简单的事情,至于分析等方面的问题还是要人脑来解决。但实际上,机器人的思维能力可以自我进化,计算机会在某天突然达到一种称作“奇点”的状态,它们将会“失去控制”,获得迅速的智能进化,以至于远远地、非常迅速地把人类抛在后面,其思维能力可以达到人脑的几万亿倍。
7 n3 `3 V- |2 m2 [6 O3 A9 [3 }% m; F' l4 m" u7 ?9 T1 B) m
现在看来,这些似乎是很遥远的梦,但智能技术也许很快就可以实现机器人的智力赶超人类。
. S7 k: B! L- _. v" e% D. P1 W9 F
: N, y' V' i% |3 ` 《科学时报》:你认为,最终图景是人类像蚊子一样,被智能机器人残忍地拍死和消灭吗?《智能简史——谁会替代人类成为主导物种》这本书的写作意图是什么?是提醒人类也许应该阻止这样的研究和事业吗?但你自己都无法中止研究,怎么阻止其他人?$ R% Z; [! i0 c" S: b" o9 v! |
' _, a* o0 k2 r% J' Q 加里斯:这本书是对未来作一个预测,并不是呼吁人们现在就停止人工智能的研究。将来人类必然会分为两派,一派我称之为“地球主义者”,他们强烈反对制造超级智能机器,认为研究人工智能是种冒险。另一派我称之为“宇宙主义者”,对他们来说,制造人工智能机器就像宗教中人类的使命,如果停留在人类本身这种微不足道的形式上,不去创造更高的进化形式,则是“宇宙大悲剧”。
& o j( J# g9 w. X' Y# X3 C) Y, r9 K1 U% ^, d
我认为21世纪是中国的世纪,中国该做这方面问题的领导者。社会学家、哲学家、政治家都应该逐步认识到这个问题。* R6 m& ]7 k! B! r' o/ M5 S7 l
$ d" v" H& y/ t, u. @& F' p
《科学时报》:为了防止机器人威胁人类,科幻小说作家阿西莫夫在1942年出版的小说中提出了机器人三原则:一、机器人不得伤人,或任人受伤而袖手旁观;二、除非违背第一定律,机器人必须服从人的命令;三、除非违背第一及第二定律,机器人必须保护自己。据说目前很多人工智能和机器人领域的技术专家也认同这个准则,但你为什么认为现实中根本无法贯彻这些原则,从而出现机器人威胁人类的情况?
/ O& G% M5 F! q# M: s# W
# C q B3 t" t) |# ^ 加里斯:阿西莫夫的这3个原则我认为确实不是很现实。在人工智能还比较低级的情况下,我们人类可以为所欲为地发出各种指令,也可以强调这三原则。但我们不断提高它们的智能,使它们的聪明程度接近甚至超过人类时,它们根本不会听任我们给它们安装各种按钮,它们会有自己的意志,从而不愿接受我们的操控。8 w! S: }9 U" e8 B& I4 [9 L* S" _
) B# ]5 H* |" R+ O8 b, C7 V4 t3 |
《科学时报》:也许到了某一天,人类会像注射疫苗一样,从出生起就随着年龄增长定期植入各种能力的晶片。你觉得会有这样的情况吗?这种半机器人的状态会有伦理冲突吗?
( t2 h0 C: G$ _4 q2 k8 T, C
/ R' l1 \8 w$ r; U; l 加里斯:半机器人是一种一半是人一半是机器的生物。从某种意义上来说,半机器人不是新概念。举个例子,一个装有木腿的退伍军人,或者一个由于心脏衰竭而装有起搏器的现代病人都可以称为半机器人。在本世纪,很有可能在人脑中加入人工智能成分,让我们的大脑有更高的记忆、更快的计算速度等。甚至有可能通过基因工程技术来改变人类的DNA,并且以此来改变人类的外表和行为。
5 f% T/ H. T8 _) A+ M
5 B- P: R7 ?4 ] 我可以想象,当基因工程和人工智能技术允许对人体进行改变的时候,将会有很多疯狂的实验。比如,大多数父母都会同意通过改变孩子的DNA,让孩子可以免除感染几千种基因疾病的危险——诸如患心脏病、癌症、糖尿病等。未来几十年内,这样的事情不仅看起来很正常,而且会被国家列入硬性规定。以避免出生“低等”、“有缺陷”的人。更可能的是,当人们熟悉基因工程婴儿的概念后,父母可能开始对自己的孩子进行一些实验,比如他们可能希望自己的孩子比自己高一些,或者聪明一些等。
3 ^( M$ H6 _) w% X9 I
) i, n- t. i. B* N% B7 C 当基因影响的范围扩大,基因工程的道德伦理的辩论也将会升温。社会将讨论:父母给未来孩子的特征的选择范围是否应该设定一个界限?
$ V/ C% N" Q, Y' q9 R* h% K4 Z8 H( P; p# L, x. M
如果半机器对自己改变得很多,它将变得更像人工智能机器。比如它继续向自己的大脑添加其他部件,可以增加一些分子级别、三维的电路,它的大脑处理速度随之出现惊人的增长。- F+ k& C1 b8 `3 ^. w% [& n
; u, X% X7 L _2 H% w; ` 如果半机器人变得越来越聪明,地球主义者对于它们的恐惧将会和对于人工智能机器日益增长的智慧的恐惧一样,都抱以极度排斥的态度。
: p' c" Q1 s. z: Q$ O3 k- O, w( Y5 G7 b
《科学时报》:你认为现在停止人工大脑的研究很不明智,那是不是应在人工大脑真正开始迅速变得聪明起来,以至于在处于一个成为威胁的拐点时停止继续研究?但这个拐点如何把握?有什么标志?
/ x3 W- T7 s5 X+ i9 e
+ n0 q. [ N3 z. n5 R- P 加里斯:现在看,人工大脑是好事情,比如制作的机器人可以帮助我们打扫房间、照顾孩子和老人、准备早餐等等,可以减轻我们的负担,让我们有更多时间干别的事情。当人工智能在人类的帮助下越来越接近人类的智力水平,这样的产业将会成为一个最大的产业,有巨大的经济价值。此时就到了一个分界点,人们开始争论,是继续发展它造福人类,还是应当停止避免给人类带来灾难?随着争论的表达,人类会分为两派人,谁赢了,就会按哪一边的方向发展。那时,是停止还是继续的问题已经不只是科学家的激烈争吵,而会演变为世界政治问题。
x0 ?2 J( |# ?8 _: E$ _: ?, O1 ?# S
《科学时报》:我们了解到,你决心投身中国发展,你具体将在哪些方面展开工作?8 M3 {$ e* P5 o; h* `# |
8 ^- h5 ]8 I, U3 }
加里斯:当然,现在首先是,我有一个中国太太。我的工作主要是教学、写书。我出的第一本书就是这本《智能简史——谁会替代人类成为主导物种》,这会引起很大争论,我希望能推动中国在这方面的争论。我现在正在写另一本书——《世界政府》,我认为将来在人类与人工智能相抗衡时,就不存在国家了。 |
|