当机器变得像人:人类怎么着看待家用机器人(上)

前文事关,当机器人进入家庭内部,由于人类与之互动的的地步与机遇大幅增添,因此固然那么些机器人显然不够具有自主性、也不像样于人类──它们不是视频〈变形金刚〉里的那种「机器生物」──人们依然倾向将它们就是「独立生命体」。那使得家用机器人有很大的空子被视为正式家庭成员之一,因为只要把机器人看成拥有独立生命,人们就不难与其创造「心境关系」。一般论者认为,那促进机器人「打入」家用市场,获得更高的选取率与使用率。然而,那说不定也会牵动伦理上的挑战。首先本文列举几人类与机具心情关系的事例,接下去提议此一场地带来的隐忧,最终再提供一些或者的缓解方案。

「家用机器人」是多年来天下机器人工业的进步首要,不少物理学家与工程师都愿意研发出可以进入家庭接济家事、陪伴小孩子与养父母的机器人。例如义大利正值研发一种照护机器人,命名为「罗布in先生」,用来增援家中高龄长者的生活起居、注意使用者的健康景况,使用者也得以因此这几个机器人身上的萤幕来与亲属或医务人员进行远端联系和咨询(注一)。其实,现在的生存当中,已有部分机器人早已进入公众家园,例如机器小狗
AIBO,或者名誉扫地机器人
ROOMBA,尽管不像Robin先生这么先进,但却也都是家中的好帮手,受到过多迎接。俺们怎么样对待那些机器人?当家庭机器人变得更为先进,大家有没有可能把它们就是真正的「家庭成员」?又会带来哪些的天伦挑衅?

AIBO (Photo credit: James Maskell, CC BY-NC-SA 2.0 )

Roomba 與小孩 (Photo credit: mobileinformationlab, CC BY-NC-ND 2.0)

人类与不像人的机器人真的可以制造心情关系吧?让大家来看多少个例子。有一种多腿的「扫雷」机器人,其运行情势是通过用那几个「腿」去踩踏地雷,藉由「捐躯」腿来触发地雷并使其失效。在测试阶段,那些机器人运作优良,接连找到许多地雷,也报销了一些只腿。然则,就在义务完全停止──机器人的腿全体「用掉」──在此之前,操作员决定为止继续遥控机器人。为何?原因是,操作员无法忍受持续看到机器人用仅剩一条腿「拖行」的镜头,也以为在让机器人「失去」最后一条腿过于惨忍。换句话说,一种心情关系──同情──在扫雷机器人与人类操作员之间确立了起来(Garreau,
2007)。在机械小狗 AIBO 上,那一个现像更为明确,即便 AIBO
的骨子里外观至极「机械化」。切磋者检视网路上 AIBO
使用者社群的贴文,发现使用者的遣词用字透揭破一些倾向:第一,平日会讲述
AIBO 动作带有「感情」,例如「它黯然地低下头」;第二,不把 AIBO
视为技术产品,而是真正的宠物,例如「它是自身的宠物,不是何等很酷的科学技术玩物」,甚至有人会说「我很对不起明日踢到它,它自然很痛!」(Kahn,
Friedman, and Hagman,
2002)。尽管是一对一习惯以「机器」的角度来拍卖与议论机器人的机器人学家,照旧不可幸免地──但常常是潜意识地──使用一些心思或心绪字眼来形容他们正在研发的机器人,就像是那么些机器人真的具有「灵魂」一样(Scheutz,
2002)。这几个都代表,人类对于机器人具有某程度的「同理​​」,也因而会以心情的艺术来了解机器人、以及创制与机器人的关联。

「家用机器人」算是社会机器人(social
robots)的一种,因为家用机器人若要可以胜利跻身家庭生活其中,它们就不可以不拥有丰富的力量与家庭成员互动,也要有可以在向来不使用者直接操作的情状下顺遂完结工作。换句话说,这一个机器人在推行它们「被设定的」功用的时候,须求展现出某种程度的「自主性」,那是机器人要融入社会生存当中不可缺失的要素。但是,身为全人类的我们,时常会有把活动物体「拟人化」(anthropomorphize)的协理,不知不觉认为它(跟大家一致)是有「生命的」,进而对其投射心情。那种倾向在人类与动物的关系中很不难见到,只要考虑人们如何与宠物相处就可精通一二。人类对于机器人是或不是也会那般?可能有人会说,假若机器人的外观太像真正人类或者宠物,那么确实有可能,不过只要它看起来就只是一台「机器」,那么大家应当不至于对它「发生情绪」。但是,实际上,对于机器人的行进,人类也常会有类似的解读(注二)。

当机器人越来越简单令人类与之建立情绪,大家只可以注意随之而来的生死存亡。例如,由于机器人或宠物不像一般人类会对大家的需求提议辩解与抵抗,由此在未来,大家很可能宁愿与机器人相处而不甘于和实事求是人类交往,或者大家宁可以要一只不要求花时间陶冶便溺行为的机器宠物而毫无一只真的小狗或小猫。换句话说,人类与机器人或宠物的关系,很可能威迫到人类与真实人类或宠物之间的涉及。另一方面,科学和技术社会学家
Sherry Turkle
曾经出书琢磨,认为当代交道媒体科学技术就算让大家有利联系相互,但骨子里却让大家活在祥和的小世界,缺少与真正人类面对面的相处,反而是被科技(science and technology)围绕(Turkle,
2012)。在 Turkle
的传道里,科技(science and technology)尚且是个「媒介」,因而大家不难想像,一旦科技(science and technology)真的成为相处的「对象」──就如(未来的)家用机器人──大家又会怎么着将自我隔离于实际关系之外。除此之外,大家对于机器人投射心思,很可能让大家信任机器人远超越信任人类,因为大家家常便饭不会设若机器会骗人。那将造成未来的「销售人员」或「法庭证人」可能多是机器人且鲜少人类,但大家却对此机器人或许内建「诈骗」机制未拥有觉。实际上,人类享有同理心的情愫特质,正是减缓人类诈欺行为的体制之一,因为大家可以考虑「如果自己受到欺诈感觉什么」,然则那种思维机制在机器人中得以说完全没有,因而反而更易于提供长机器人「不诚实」的可能性。

更首要的是,若是大家对于机器人行动的认识,是在互动内部、而不仅仅是观望,那么把机器人看成单独生命个体的辅助会愈加鲜明。机器人学家
Matthisa Scheutz
认为,一般研讨机器人是不是可能具有「个体」地位的时候,平时把关键放在机器人是或不是富有某些「人类」特质,例如可以自立决定或者可以自由行动,却不经意使用者是还是不是、又是怎么着把它们作为生命个体。
Scheutz
认为,机器人是或不是被当成具有生命、甚至变成人类投射心情的靶子,不仅关系机器人的外观是或不是接近真人或动物,也不在于它们是还是不是富有人类特质,而在于它们如什么人类「互动」,固然那一个机器人的动作都是通进度式设定而来。

美劇 Almost Human 海報:猜猜哪邊是人類?

Scheutz
在尝试中寓目到,当人类与机器人一起形成某些工作职分的时候,就算机器人的动作分外单纯而且机械化,但比起只是在旁看到机器人做出相同动作,与机器人「合营」的人类更便于把那几个机器人视为一个自主的活体(注三)。又比如说,对于同一发出声音与讯号的机器人,倘若它暴发那一个声音与讯号的火候是在人类做出一点动作之后--也就是说从旁来看,机器人就像正在对全人类行为出反应--那么这几个机器人一般会被人类赋予比较高的「自主」评价(注四)。换句话说,即使机器人做同样的作业、发一样的鸣响,不过假若这个「行为」暴发在与人类互动的历程当中,人类平日倾向将它们的动作看成是对人类动作的「天然应对」,而不是某种人为写入的持筹握算程式的结果。在相互的经过与情境里,人类倾向把机器人视为自主的与人身自由的,也就此更便于把机器人正是一个「个体」,而不单单只是「机器」。

那么,要如何幸免那几个势头?机器人学家 Matthisa Scheutz 提供了多少个方案。
(一)严酷地把一些道德价值「写入」机器人的程式当中,例如「诚实不说谎」。可是,那恐怕际遇伦工学一向以来的关键干扰──道德价值排序题材:你让犹太人躲藏在你的家园,但当纳粹敲你家门追问是或不是隐伏犹太人时,你应该说谎救人依然据实以告?
(二)让机器人与人类一样享有同理心,由此会「亲临其境」感到违反道德价值的罪恶感,因此避免犯下诸如欺骗的行为。那或许是最好美妙的情景,可是以近日机器人学的进步风貌来看,那个方案可能仍要求一段不短的小时才可能完成。
(三)可能是当前最为可行的方案:在布置时,不只尽量幸免拟人化,更要给予机器人某些足以提醒人类「我是无生物」的风味。透过这样的不二法门,尽可能避免让人类不自觉地与机器人发生心绪关系,从而幸免相关伦理疑虑。可想而知,不论是以何种措施,现在已是必须考虑这一个标题与利用相关行动的最首要时刻,唯有审慎因应可能的前途,才有可能所有一个得天独厚的前景。

Japanese Robot (Photo credit: buck82, CC BY-NC 2.0)

參考書目:
Garreau, J. (2007, May 6). Bots on the Ground. The Washington Post.
Kahn, P. H., Jr., Friedman, B., & Hagman, J. (2002). "I Care About Him
As a Pal": Conceptions of Robotic Pets in Online AIBO Discussion Forums.
In CHI '02 Extended Abstracts on Human Factors in Computing
Systems
 (pp. 632–633). New York, USA: ACM.
Turkle, S. (2012). Alone Together: Why We Expect More from Technology
and Less from Each Other
 (First Trade Paper Edition edition.). New
York: Basic Books.

从这么的角度来看,很扎眼地,由于家用机器人在职能设定上必需要对全人类行为做出反应,由此比起一般机器人或工业机器人,家用机器人的「互动」特质让它们更易于被使用者当成是一个活体,也更有时机变成一个「正式的」家庭成员。大家也许会重视它、爱抚它、甚至爱它。许多「饲主」自认是机器小狗
AIBO 的所有者,因为 AIBO
正是用如此一种对待主人的「态度」来对使用者做出反应。当扫地机器人 ROOMBA
撞到我们的脚而飞快退开或转账的时候,咱们或许觉得它「知道」要回避不去碰伤那个买它回家的人,但实质上,它避开大家就跟避开桌脚从不例外,换句话说,在
ROOMBA 的「心中」,大家跟桌子或者都是一模一样的吗!

爱好本文吗?请点击下方的「喜欢」,也欢迎您打赏自身哟!别忘了关心自己的简书,或跟随我的 微博 或 Google+

Twitter
Facebook,也可浏览我的繁中博客
社技工学,谢谢!

由于家用机器人那种「与人互相」的技能特质,我们简单想像,当将来的机器人越来越擅长与我们互相,我们兴许更便于对它发出「心思关系」。就算有人认为,在机器人的宏图上,人类对于机器人拟人化的解读倾向,有助于人类更快接受机器人进入家庭、甚至变成家庭标准成员之一,可是这几个「机器-人」的情丝建立,却也说不定带来伦理上的心病。这个隐忧是怎么着?又该怎么因应?那一个正是本文下集想要进一步探究大旨。

附注:
一:请参考网路音讯〈义大利研发机器人保姆可全天候监测独居长者健康情况〉(浏览日期:2014/06/12)
二:请参见林宗德〈人与机器人互动(一):拟人化〉(浏览日期:2014/06/12)
三:请参考 Schermerhorn, P., & Scheutz, M. (2009). Dynamic Robot
Autonomy: Investigating the Effects of Robot Decision-Making in a
Human-Robot Team Task. In Proceedings of the 2009 international
conference on multimodal interfaces (pp . 63–70). New York: ACM.
四:请参考 Scheutz, M., Schermerhorn, P., & Kramer, J. (2006). The
Utility of Affect Expression in Natural Language Interactions in Joint
Human-Robot Tasks. In Proceedings of the 1st ACM International
Conference on Human- Robot Interaction (pp. 226–233). New York: ACM.

喜欢本文吗?请点击下方的「喜欢」,也欢迎您打赏本身呀!别忘记跟随我的微博或 Google+

Twitter

Facebook,或者参观我的繁中博客
社技文学,谢谢!

相关文章

Comment ()
评论是一种美德,说点什么吧,否则我会恨你的。。。