人工智能背后的伦理道德

2018年7月12日 来源:龙眼机器人  浏览 1034 次 评论(0)

我们无法知道我们将无限地得到人工智能的帮助还是被藐视并被边缘化或者很可能被它毁灭。的确我们担心聪明的机器将能够代替人类正在从事的工作并迅速地消灭数以百万计的工作岗位。

 

人工智能的研究与开发正在迅速推进。也许我们所有人都应该暂停片刻把我们的研究从人工智能能力转移到化人工智能的社会效益上面。

 

——史蒂芬·霍金

 

必须承认人工智能的黑暗面。在思考如何将人工智能的好处化的同时必须考虑到人工智能是一把双刃剑。鉴于当前治理和管理体系的不足在没有经过反对者和支持者平等对话的政治程序之前就对人工智能进行大量投资是危险的。

 

 

 

——大连理工大学人文与社会科学学部哲学系教授、社科基金重大项目高科技伦理问题研究首席专家王国豫

 

人工智能研发者面对的困难就像空间探测器工程师所面对的一样一旦你启动了它它就在你力所能及的范围外了。

 

——机器智能研究所Eliezer Yudkowsky

 

假设你在进行销售纸夹的业务你想制造一个用于尽可能多的生产纸夹的人工智能这看起来似乎不会有什么危害。但是因为这是给人工智能设定的目标聪明的人工智能可能会只关注于制造纸夹而牺牲掉其他你关心的一切事物。当材料用完时它会很快将周围的一切能找到的东西回炉变成纸夹的原料然后再重新组装成纸夹。很快它将毁灭地球上的生地球太阳系甚是整个宇宙——仅仅是为了完成一个令尽可能多的生产纸夹永远也停不下来。开发人工智能时可能会遇到的错误分为两种可以日后修复的错误和只会发生一次的错误而后者更令人担心。

 

——牛津大学哲学家Nick Bostrom

 

包括在采用大量的生物指纹将来和很多信息结合在这个里你没有的自由或的隐私。我们做人工智能或者做的技术突破之前法律法规或者说人类的伦理的一些边界一定要划分好马克思说过科学的入口就是地狱的入口我们人类不能走向把自己混灭的道路。希望把AI严格限制在特别的领域不要和人产生太多的关系。

 

——酷派CEO刘江峰

 

 

 

人工智能和机器人领域的专家面临一个重要的伦理决策必须要决定他们是支持还是反对致自主武器系统LAWS)。该领域的风险很高致自主武器系统被描述为战争的第三次前两次是火药和核武器。

 

LAWS通过允许机器选择杀死谁可能侵犯人类尊严的基本原则而它们的灵活性和杀伤力将让人们毫无防御之力。因此应对人工智能武器表明立场。

 

——美国加州大学伯克利分校计算机科学教授Stuart Russel

 

人工智能在加速生物和医学领域的科学发现及改变医疗卫生方面有惊人潜力。但人工智能技术也将加剧目前的医疗卫生不平衡状况除非能发现一种方式让所有病人受益。例如在美国只有特殊群体或能支付得起的人才能获益于先进的诊断技术这是不公平、不合理的。

 

另外临床医生理解和解释高性能人工智能系统所得出的结果的能力令人担忧。大多数卫生保健提供者不会接受一个来自决策支持系统的没有明确描述如何和为何能出现效果的复杂治疗建议。因此研究人员需要让医生、护士、患者和其他人明白他们应该如何使用人工智能并且如何公平地使用。

 

——美国斯坦福大学生物工程、基因学、医学和计算科学教授Russ Altm

 

 

我来说两句
人参与 丨 评论0条)
图标
注册 登录    
评论列表
每页 10 条,共 0 条
×

微信扫一扫关注我们

欢迎投稿

×

邮箱:15236061639@163.com

QQ:60298351

微信:a18137798589

(版权所有 科工网&北京天云聚合科技有限公司 © Copyright 2015 - 2022 . All Rights Reserved.) 京ICP备14030211号-5   |   营业执照