当机变得如人:人类如何对待家用机器人(下)

前文关系,当机器人进入家庭中,由于人类和的互动的底地和时大幅增多,因此即使这些机器人明显不够有自主性、也未像样于人类──它们不是影片〈变形金刚〉里之那种「机器生物」──人们还是倾向将它们就是「独立生命体」。这令家用机器人有不行可怜的空子吃视为正式家庭成员之一,因为要将机器人看成拥有独立生命,人们就是容易和该成立「情感关系」。一般论者认为,这促进机器人「打入」家用市场,获得重新胜之采用率与使用率。不过,这可能为会见带动伦理上的挑战。首先本文列举几个人类和机具情感关系之例子,接下去指出此如出一辙观带来的隐忧,最后再次提供有恐的缓解方案。

「家用机器人」是新近海内外机器人工业的迈入重要,不少科学家及工程师还梦想研发来好进来家庭助家事、陪伴孩子和家长之机器人。例如义大利着研发一种照护机器人,命名也「罗宾先生」,用来帮忙家中高龄长者的在起居、注意使用者的健康状况,使用者也足以透过这个机器人身上的萤幕来和亲人还是医生进行远端联系与提问(注一)。其实,现在之生存当中,已发一些机器人已进入公众家庭,例如机器小狗
AIBO,或者名誉扫地机器人
ROOMBA,虽然未像罗宾先生这样先进,但却也都是家之好助手,受到广大欢迎。咱们哪看待这些机器人?当家庭机器人变得更加先进,我们发出无发或把她就是真正的「家庭成员」?又见面带哪些的伦理挑战?

AIBO (Photo credit: James Maskell, CC BY-NC-SA 2.0 )

Roomba 與小孩 (Photo credit: mobileinformationlab, CC BY-NC-ND 2.0)

人类和不像人之机器人真的好起情感关系吧?让咱们来拘禁几只例。有同种多腿的「扫雷」机器人,其运作方式是通过用这些「腿」去踏上踏地雷,藉由「牺牲」腿来触发地雷并而其失效。在测试阶段,这个机器人运作良好,接连找到多地雷,也报废了某些只是腿。然而,就于任务了竣工──机器人的腿举「用掉」──之前,操作员决定终止继续遥控机器人。为什么?原因是,操作员无法忍受持续看到机器人用光剩一修腿「拖行」的镜头,也看当吃机器人「失去」最后一久腿过于惨忍。换句话说,一种植感情关系──同情──以扫雷机器人和人类操作员之间建立了起来(Garreau,
2007)。在机小狗 AIBO 上,这个现像更为鲜明,即使 AIBO
的莫过于外观相当「机械化」。研究者检视网路上 AIBO
使用者社群的贴文,发现使用者的遣词用配透露有片倾向:第一,经常会讲述
AIBO 动作带有「情感」,例如「它凉地亚脚」;第二,不把 AIBO
视为技术活,而是真的的宠物,例如「它是自的宠物,不是什么坏怪的科技玩物」,甚至有人会说「我颇对不起今天踢到它,它必将特别痛!」(Kahn,
Friedman, and Hagman,
2002)。即使是一定习惯以「机器」的角度来处理和议论机器人之机器人学家,仍然不可避免地──但一般是无心地──使用一些情感要情绪字眼来形容他们正在研发的机器人,仿佛这些机器人真的具有「灵魂」一样(Scheutz,
2002)。这些还意味,人类对于机器人具有某程度之「同理​​」,也为此会以情的措施来喻机器人、以及成立和机器人的干。

「家用机器人」算是社会机器人(social
robots)的均等种,因为家用机器人若一旦能够胜利上家庭生活里,它们就务须拥有足够的力量以及家庭成员互动,也要发出会以从来不使用者直接操作的情下顺利完成工作。换句话说,这些机器人在实行其「被设定的」功能的时节,需要表现出某种程度的「自主性」,这是机器人使融入社会生存当中不可少的因素。不过,身啊全人类的我们,时常会产生将运动物体「拟人化」(anthropomorphize)的同情,不知不觉认为她(跟我们一样)是有「生命之」,进而对该投射情感。这种倾向在人类同动物的涉嫌蒙充分易看到,只要考虑人们怎样和宠物相处就不过理解一二。人类对机器人是不是为会见这般?可能有人会说,如果机器人的外观太像真人类可能宠物,那么确实来或,但是若它们看起就特是一样宝「机器」,那么我们应当不至于对她「产生感情」。然而,实际上,对于机器人之行,人类也每每会发出类似的解读(注二)。

当机器人越来越容易让人类同之植情感,我们不得不注意随之而来的险恶。例如,由于机器人或宠物不像相似人类会指向咱们的求提出辩解与抵抗,因此在未来,我们蛮可能宁愿跟机器人相处而非甘于与实在人类交往,或者我们宁愿可以假设平等单单非需要花费工夫训练便溺行为之机械宠物而不用同不过真的小狗或小猫。换句话说,人类同机器人或宠物的关系,很可能威胁到人类和实际人类还是宠物之间的干。另一方面,科技社会学家
Sherry Turkle
曾经出书讨论,认为当代交道媒体科技虽然让我们有利联系彼此,但实则也受咱生存在祥和的小世界,缺乏和忠实人类面对面的处,反而是叫科技围绕(Turkle,
2012)。在 Turkle
的传道里,科技都是独「媒介」,因此我们不难想像,一旦科技真的成为相处之「对象」──就像(未来底)家用机器人──我们同时会什么用自家隔离于真实关系之外。除此之外,我们对此机器人投射情感,很可能受我们信任机器人远超信任人类,因为我们司空见惯不会若机器会骗人。这将导致未来之「销售人员」或「法庭证人」可能多是机器人还鲜少人类,但我们也于机器人或许内修筑「诈骗」机制不持有清醒。实际上,人类有和理心的感情特质,正是减缓人类诈欺行为之建制有,因为我们会考虑「如果协调受欺诈感觉怎么样」,然而这种思想机制在机器人中可说了无,因此反又易提供长机器人「不诚实」的可能性。

再次要的凡,如果我们对于机器人行动之认,是于互动其中、而不只是旁观,那么将机器人看成独立生命个体的倾向会进一步鲜明。机器人学家
Matthisa Scheutz
认为,一般讨论机器人是否可能具备「个体」地位之时节,通常将问题放在机器人是否持有某些「人类」特质,例如克自主决定要好自由行动,却忽视使用者是否、又是怎么将她作为生命个体。
Scheutz
看,机器人是否让算具有生命、甚至成为人类投射情感的目标,不仅涉嫌机器人之外观是否接近真人或动物,也无在于它们是否持有人类特质,而在它如何人类「互动」,即使这些机器人之动作都是由此程式设定而来。

美劇 Almost Human 海報:猜猜哪邊是人類?

Scheutz
在试被观察到,当人类同机器人一起就某些工作职责的时刻,即使机器人的动作很纯净而机械化,但正如打就是在外看到机器人做出相同动作,与机器人「合作」的人类还便于把此机器人视为一个独立的活体(注三)。又像,对于同样发出声音与讯号的机器人,如果其来这些声音和讯号的机是以人类做出一点动作之后--也就是说从其它来拘禁,机器人似乎在针对人类行为出反应--那么这个机器人一般会让人类与比较高之「自主」评价(注四)。换句话说,虽然机器人做相同的作业、发一样的声响,但是要是这些「行为」发生在与人类互动的历程当中,人类通常倾向将它的动作看成是指向全人类动作之「天应对」,而未是某种人为写副的精打细算程式的结果。在竞相的进程以及地里,人类倾向把机器人视为自主的同人身自由之,也为此还爱把机器人正是一个「个体」,而不单独只是是「机器」。

那,要什么样避免这趋势?机器人学家 Matthisa Scheutz 提供了几乎单方案。
(一)严格地将一些道德价值「写副」机器人之程式当中,例如「诚实不说谎言」。不过,这恐怕受伦理学一直以来的重要性困扰──道德价值排序问题:你吃犹太人躲藏以你的家,但当纳粹敲你门追问是不是隐身犹太人时,你应该说谎救人还是据实以控告?
(二)让机器人及人类一样拥有跟理心,因此会面「设身处地」感到违反道德价值之罪恶感,因而避免犯下诸如欺骗的一言一行。这说不定是最好美妙之现象,不过因为时机器人学的前进面貌来拘禁,这个方案或仍需要平等截未缺少的时间才可能实现。
(三)可能是当前极行之有效的方案:在规划时,不只尽量避免起人化,更要给机器人某些足以提醒人类「我是无生物」的风味。透过这样的法,尽可能避免受人类不自觉地与机器人产生情感关系,从而避免相关伦理疑虑。总之,不论是盖何种方式,现在已经是必须考虑这些题目同应用相关行动的根本时刻,唯有审慎因应可能的未来,才产生或具备一个优异的前景。

Japanese Robot (Photo credit: buck82, CC BY-NC 2.0)

參考書目:
Garreau, J. (2007, May 6). Bots on the Ground. The Washington Post.
Kahn, P. H., Jr., Friedman, B., & Hagman, J. (2002). "I Care About Him
As a Pal": Conceptions of Robotic Pets in Online AIBO Discussion Forums.
In CHI '02 Extended Abstracts on Human Factors in Computing
Systems
 (pp. 632–633). New York, USA: ACM.
Turkle, S. (2012). Alone Together: Why We Expect More from Technology
and Less from Each Other
 (First Trade Paper Edition edition.). New
York: Basic Books.

从这样的角度来拘禁,很强烈地,由于家用机器人在效能设定达标得使本着全人类行为做出反应,因此比较由一般机器人或工业机器人,家用机器人的「互动」特质让其还爱被使用者当成是一个活体,也重新发生时机成为一个「正式的」家庭成员。我们可能会见青睐其、保护其、甚至好其。许多「饲主」自认是机械小狗
AIBO 的持有者,因为 AIBO
正是因此这样同样种植对待主人的「态度」来对使用者做出反应。当扫地机器人 ROOMBA
撞至我们的底下要迅速退开或转发的下,我们恐怕当她「知道」要避开不去碰伤那个买她回家之总人口,但事实上,它避开我们即便和避开桌脚无不同,换句话说,在
ROOMBA 的「心中」,我们同桌子或者都是平等的吧!

喜欢本文也?请点击下方的「喜欢」,也接你打赏本人啊!别忘了关切本身之简书,或跟我的 微博 或 Google+

Twitter
Facebook,也不过浏览我之繁中博客
社技哲学,谢谢!

是因为家用机器人这种「与食指互相」的技能特质,我们不难想像,当未来之机器人越来越擅长跟我们互相,我们也许还易对她有「情感沟通」。虽然有人当,在机器人的宏图及,人类对机器人拟人化的解读倾向,有助于人类还快接受机器人进入家庭、甚至成为家庭标准成员之一,不过这「机器-人」的情义建立,却也可能带来伦理上的心病。这些隐忧是啊?又该怎么为许?这些正是本文下集想如果进一步讨论主题。

附注:
相同:请参见网路新闻〈义大利研发机器人保姆可全天候监测独居长者健康状况〉(浏览日期:2014/06/12)
次:请参见林宗德〈人跟机器人互动(一):拟人化〉(浏览日期:2014/06/12)
三:请参考 Schermerhorn, P., & Scheutz, M. (2009). Dynamic Robot
Autonomy: Investigating the Effects of Robot Decision-Making in a
Human-Robot Team Task. In Proceedings of the 2009 international
conference on multimodal interfaces (pp . 63–70). New York: ACM.
四:请参考 Scheutz, M., Schermerhorn, P., & Kramer, J. (2006). The
Utility of Affect Expression in Natural Language Interactions in Joint
Human-Robot Tasks. In Proceedings of the 1st ACM International
Conference on Human- Robot Interaction (pp. 226–233). New York: ACM.

嗜本文为?请点击下方的「喜欢」,也接您打赏本身什么!别忘从我的微博或 Google+

Twitter

Facebook,或者参观我之繁中博客
社技哲学,谢谢!

相关文章

Comment ()
评论是一种美德,说点什么吧,否则我会恨你的。。。