糖心vlog官方网站

机器人要普及伦理这个问题必须要重视

17-09-25

    机器人在很多行业已经变得司空见惯,例如医疗保健、军事和安保。然而,最近人们已经开始讨论机器人的伦理问题。

 

 

 

几个月前,英国标准协会(BSI)提出了一个类似的文件“BS8611机器人和机器人装置”,是一种在机器人中嵌入伦理风险评估的一种方法。这个文件是由科学家、学者、伦理学家、哲学家和用户等组成的委员会写的,目的是供机器人和机器人设计者和管理者使用,帮助人们识别和避免潜在的伦理伤害。文件规定“机器人不应该被设计为单独或协助杀死或伤害人类”,并且“人类应当为机器人负责任,而不是反过来”。


    最近硅谷机器人也推出了一个善良机器人设计委员会(Good Robot Design Council),这个委员会为机器人和学者推出了“5大机器人法则”为机器人在日常生活中的伦理提供指南:


    1.机器人不应该被设计为武器。


    2.机器人应遵守现行法律,包括隐私权。


    3.机器人是产品,应当安全、可靠,不得歪曲他们的功能。


    4.机器人是人类制造的工艺品:情感和代理的错觉不应该被用于利用弱势用户。


    5.应该找出谁对机器人负责。

 

使用机器人和自动化技术来提高工作的效率、灵活性和适应性是制造业增长的重要组成部分。为了提高机器人的使用范围,必须确定和解决伦理问题和危害,例如,导致人类非人性化或对机器人的过度依赖等。


    虽然这些标准建立在不同类型的机器人之上,但它认识到机器人和自动系统在日常生活中存在潜在的伦理风险,特别是当机器人充当护理或陪伴角色时。


    PARO治疗机器人已经被世界各地的养老院广泛应用为老人的伴侣,而且这项服务取得了巨大成功。但是当这样的关系结束时会发生什么?索尼的AIBO机器狗就是一个很好的例子。AIBO机器狗发布于1999年,2006年停产。对于许多业主来说,AIBO就像一只宠物慢慢死去一样,在日本甚至出现了AIBO狗葬礼。现实是,当人们将机器人当作宠物或人类时,人们正在与这些机器人建立情感联系。


    虽然机器人没有意识,但是,有些机器人正被用于暴力行为。例如,飞行的机器人——无人机,被用来在平民和战区进行无人战斗;在美国机器人被用来引爆炸弹来制服嫌犯。这是美国警察部门第一次使用远程定位爆炸物杀死嫌疑人。


    如果军事和警察被排除在善良机器人设计委员会和BSI的“不伤害”承诺之外,这样的先例就不应当成立。而这些只有时间才能给出答案。

返回顶部 ↑
糖心vlog官方网站