新書推薦:
《
镜中的星期天
》
售價:HK$
76.2
《
世界前沿技术发展报告2024
》
售價:HK$
193.2
《
可转债——新手理财的极简工具
》
售價:HK$
66.7
《
新加坡教育:神话与现实
》
售價:HK$
98.9
《
“口袋中的世界史”第一辑·冷战中的危机事件
》
售價:HK$
299.0
《
绝美的奥伦堡蕾丝披肩编织
》
售價:HK$
181.7
《
狂飙年代:18世纪俄国的新文化和旧文化(第二卷)
》
售價:HK$
177.0
《
万有引力书系 纳粹亿万富翁 德国财富家族的黑暗历史
》
售價:HK$
112.7
|
編輯推薦: |
1.《自然》杂志、哈佛大学、剑桥大学、纽约大学等一致推荐
2.科技的未来就是人类的未来和财富机遇,科技的失控就是潜藏在未来和机遇中的陷阱和危机
3.史蒂芬霍金一直强调:科技是人类的威胁
4.耶鲁大学教授、人工智能伦理方面的国际权威温德尔瓦拉赫的科技思维,重新看懂未来
5.多数人的问题在于:科技思维还停留在水变汽油的水平,然而还想靠科技赚钱
|
內容簡介: |
所谓科技思维不是能读懂多少新兴科技名词,而是能够对科技进行立体的思考与辨识。
智能机器将会造成越来越多的人失业?
为什么有科学家说*台超智能机器将是人类的*后一项发明?
我们谈论转基因时,为什么专家和大众不在一个频道上?
我们是否应该将决策权交给机器?
如何监控许少数团体发起的可能危及所有人的研究?
3D打印带来便利的同时潜在的社会风险是什么?
如何制订机器人的道德准则?所谓科技思维不是能读懂多少新兴科技名词,而是能够对科技进行立体的思考与辨识。
智能机器将会造成越来越多的人失业?
为什么有科学家说*台超智能机器将是人类的*后一项发明?
我们谈论转基因时,为什么专家和大众不在一个频道上?
我们是否应该将决策权交给机器?
如何监控许少数团体发起的可能危及所有人的研究?
3D打印带来便利的同时潜在的社会风险是什么?
如何制订机器人的道德准则?
当我们谈起科技时,我们应如何思考?
我们生活在技术潜力超乎寻常的年代。从纳米技术到合成有机物,新技术带给人类翻天覆地的变化。技术的潜力令人惊叹也令人畏惧。无人机和新的智能手机一样可能轻而易举引爆炸弹,3D打印既可以制作工具也可以制作枪支。超级计算机能轻松管理个人档案也能易如反掌导致华尔街崩溃。
但是新技术无法回答如何解决这些技术所引发的道德问题和投资风险。作为未来科技领域权威的道德和伦理研究者,瓦拉赫在《科技失控》一书中,探讨了作为技术的发明生产者和消费者如何应对飞速的技术发展所带来的道德模糊问题。
毫无疑问,科学研究和创新是希望和生产力的源泉,但正如瓦拉赫所言,技术的不断发展可能逐渐成为一股脱离人类控制的强大力量。某些人、机构或是某些价值观反对对新兴技术比如自动化机器人或是要求进行有意义的监管,《科技失控》对这些情况进行了深入分析,提出了如何掌控技术,重掌人类命运的建议。
读懂科技将带来什么,我们才能更好地掌控自己的未来!
|
關於作者: |
温德尔瓦拉赫(Wendell Wallach)
耶鲁大学生物伦理学跨学科中心的主管、伦理学家和知名学者,与人合作出版有《道德机器:教机器人分辨对错》。
|
目錄:
|
第一章谁真正掌控我们的未来
技术风暴
转折点
航向修正
必然、不安和沉默
进攻计划
第二章预测
难以预知的危机
对未知的恐惧
第三章越来越复杂
复杂系统和混沌系统
复杂意味着更容易出问题
复杂的技术系统
复杂建模能否解决问题
全力应对不确定性
人体是一个复杂系统
无法预测的命运
第四章变化的速度
3D打印
互联网前和互联网后
加速、智慧以及奇点
技术发展的失控
我们是否有能力控制
技术变化的获益和风险
第五章权衡
DDT和氟利昂
纳米技术
环境风险:合成石油和水力压裂
核电和能源
第六章生物工程和转基因
基因学简史
自上而下和自下而上
基因科技的前沿
人兽杂交
黄金大米事件
第七章掌控人类基因
设计人类?
基因与环境
个性化药物
从试管婴儿到设计婴儿
基因研究的转折点
第八章超越生命极限
超级人类
假如可以长生不老
有智慧的机器
第九章半机器人和技术智人
关于未来的战争
关于增能之争
我们身边的半机器人
符合伦理的研究
认知增能
第十章病态的人性
用药物提升道德?
生物化和机械化
修复设计缺陷
透过黑暗的玻璃
第十一章超级武器与技术风暴
如果我们不采取行动,他们会的
保健广告的荒谬
我们还有多少时间
第十二章终止终结者
自动驾驶汽车和责任
服务型机器人
计算法决定生死
未来战争的红线
电脑无处不在
第十三章工程灾难
绝育和抑制
为责任设计
道德机器
弹性系统
第十四章社会应变落后于技术发展
社会和技术的节奏问题
胡萝卜加大棒
执行中的挑战
第十五章我们的未来
人类可掌握的节奏
每个人都是参与者
注释
致谢
|
內容試閱:
|
我们是否应该将决策权交给机器?
杀人机器人只是把人类的决策权交给机器的一个例子。越来越多的非自主计算机和机器人有可能破坏了人(个人或企业)应为其行为负责的基本原则,并有可能为任何技术的部署造成的危害承担责任。谈到非军事机器人的用途将会使这一点更加清晰。大部分为家用目的开发的系统不应该被禁止。在许多情况下,他们的好处远远大于风险。尽管如此,它们稀释了负责任的人或企业代理这一核心原则,因此成为令人不安的先例。
截至2014年5月,一个无人驾驶的丰田汽车普锐斯车队其改良的硬件和软件都由谷歌设计,成功在加州高速公路和城市街道行驶70万英里。这些无人驾驶车辆无一造成交通事故。对于谷歌汽车持续的媒体报道给人的印象是未来5~10年内消费者将可以购买到完全无人驾驶车辆。未来的汽车发展的前景是在疯狂的派对之后可以由无人驾驶车辆安全送到家,但谷歌的车并非如此,如果计算机司机对某些情况无法处理时,还是需要驾驶座上的操作者随时接管。在不到10秒钟的警报时间内,驾驶人员需要充分投入,如果万一有意外发生,则将被追究事故责任。这就是说谷歌计算机司机在驾驶时,驾驶座上的主人不能打盹或发短信。驾驶员无事可做,会感到无聊和注意力不集中,这将妨碍其短时间内对潜在危险做出反应的能力。
美国国家公路交通安全管理局估计,81%的碰撞事故都是由于人的某些原因。因此,提倡无人驾驶汽车的人普遍认为,这些车辆将显著降低死亡率。这种说法的准确性值得质疑。毫无疑问,造成事故的原因很多是司机在打盹、出神或干脆睡觉了。但是无人驾驶汽车因为计算机错误或计算机司机警告接管后车主无法掌控情况导致的事故可能更严重。
据谷歌的统计,当前的设计平均36000英里才会出现一次计算机司机出现严重错误需要人进行干预的情况。这听起来让人比较放心,因为一般的司机需要2或3年才能开够这么远的里程。然而,人类司机一般每50万英里才会出现事故,每130万英里可能发生伤人的事故,每9000万英里才可能导致人员死亡的事故。因此,难以证明依赖备份人类司机的无人驾驶汽车能否真正降低死亡率。但是一个简单的事实是无人驾驶汽车比人对紧急事件做出刹车的反应要快,这表明无人驾驶车会比有人驾驶车更加安全。
我们现在可以考虑这种可能性,车辆自动驾驶功能的确可能带来事故死亡人数减少,但在这些事件中死亡的人与人驾驶车造成的死亡是不一样的人。对于死亡的人本身的权衡将为法律和保险机构带来新问题。比方说,为了避免撞上公共汽车或旁观者,自动驾驶的车辆从桥上掉下去,导致车主身亡。这是令人不愉快的场景,但有些司机会主观上选择这么做。
伦理学家帕特里克林(Patrick Lin)在2013年发表的一篇文章指出,在为了最大人群的最大利益的道德数学背景下,也许应当给自动驾驶的车辆进行编程,选择让车主死亡而不是撞死2个路边的行人。但是用数学来决定对错令人不安。当然,这样的情况也颇不寻常。但是我们难道希望让机器人汽车来决定我们的死活吗?
当事故发生时谁将被追究责任?汽车制造商们在责任问题解决之前是不愿意营销自动驾驶车辆的。但是目前,法律将判定自动驾驶车辆的制造商为大多数事故负责。如果让司机为一起他们无法在很短时间内掌握方向盘的事故负责肯定会很不舒服。除了解决各种技术难题,发生事故后的责任和法律后果如何管理是完全自动驾驶车辆投入市场速度很慢的原因。在很多情况下,赔偿责任的问题不能且不应由生产商或工程师决定。立法机构、法院、保险机构必须为此做出决定。
所有这些问题都无法阻止有进取心的公司找到新的手段推销自动驾驶车辆。他们将上访州政府和游说制定新法律。在此期间,他们很可能会重新定义自动驾驶车辆,使用一些模糊的语言,如驾驶辅助等。目前,一些高端车辆已经采用了自动泊车和紧急制动等安全特性。
当然,制造商将确保他们的责任是有限的。即使责任问题没有完全解决,自动驾驶车辆对于一些特殊用途而言仍是有吸引力的选择。例如,一些老年人本身就不再相信自己能一直保持高度注意力,就很希望有一辆具备驾驶辅助的车辆,即使这意味着他们必须保持目光一直盯着前方的道路。但是,如果自动驾驶车辆造成一次严重的事故,则很可能导致这一行业倒退几十年。有时候,事故难以避免。工程师们当然会尽一切努力控制自动驾驶车辆造成事故的数量。他们知道,自动驾驶汽车的接受度将取决于公众是否愿意接受即使发生了一起可怕的事故,也能清楚地表明自动驾驶车辆比人驾驶的车辆要明显安全得多。
解决这些社会担忧,其中一种可能的办法是对完全自动化驾驶汽车提供无过错保险。如果自动驾驶汽车提供了真正的净优势,那么立法机关可以制定政策,放松这一行业的发展。可以肯定,如果有一项立法可以减少自动化系统因为设计师和工程师有时无法预见的情况导致的系统故障和事故所承担的责任,那么肯定会大大促进整个机器人行业的发展。
但是快速促进越来越自动化的机器人的发展到底有多重要呢?减少责任肯定会加快机器人技术发展,但有利有弊。这将开启绿灯,允许制造厂商推出尚未经过全面测试或已经知道缺陷的产品。公司将强调难以确定谁为复杂的智能系统负责,因为他们会去请愿减少为系统故障承担责任。什么时候回报才会大于风险?
实践伦理学家和社会理论家对于减轻企业和个人责任,问责制度,以及为越来越自动化系统行为负责等引起的内在危险十分担心。2010年,为了表达他们的担心,提出了五项规则以重申人类不能逃脱对于计算机物品的设计、开发或部署造成的道德责任。50多名技术和道德领域相关的学者签字表达对这五项规则的支持。出于本书的目的,只要说明其中的第一项规则就足够了:
规则1:设计、开发或部署计算机物品的人应当为该物品承担道德责任。这项责任是与其他设计、开发、部署或知情情况下将该物件作为社会技术系统的一部分进行使用的人共同承担。
如果第一条规则被编入法律,枪支制造商将为使用其枪支造成的谋杀案负责;香烟制造商将为吸烟者所患肺癌负责。虽然表达的方式略有不同,但这五项规则都过于宽泛,而且有点不切实际。这些规则的推广应用不会很容易,并将显著减缓机器人产业的发展。但是,它们强调了法律理论家和伦理学家对于减少机器人装置行为所负责任,或引入一些行为无法预测的机器人的担心。
这些规则,比如前面所述为计算机物品所提出的规则,是否可能或应当上升为责任法仍是一个悬而未决的问题。一个棘手的政策辩论仍摆在面前。是否应当减少对于计算机和机器人所应承担的责任,以激发这一潜在的变革行业的发展?还是应该维持现有的保护措施,即使这可能抑制了企业推出具有显著好处但存在较低不确定风险的新产品的意愿。
谷歌机器人汽车项目首次曝光于2009年,道奇战马在其电视广告里对谷歌汽车大肆抨击。在广告中,一个低沉的,不祥的声音宣告:自动驾驶,自动停车入库,这是由一家搜索引擎公司驱动的无人驾驶车辆。我们已经看过那部电影。它最终的结局是机器人从我们的身体里汲取能量。汽车肯定不会利用我们的身体作为燃料,但这个广告反复出现的图像一直在暗示,如果继续朝着自主化机器人的目标发展,那下一步则是滑下深渊,人类与其创造的物品之间将充满冲突。这样的恐惧引起了多少人的关注?
当然,完全自主化的人工智能系统远非今天的技术所能实现。即使有人相信有一天最终会实现,确保超能机器人系统对人类友好很可能会解决。但简而言之,很多市民,虽然对机器人感兴趣,仍然对机器人技术可能的走向感到不舒服。
|
|