我们已经更新我们的隐私政策使它更加清晰我们如何使用您的个人资料。

我们使用cookie来提供更好的体验。你可以阅读我们的饼干的政策在这里。

广告

不要听信炒作:促进人工智能道德和原则

不要听信炒作:促进人工智能道德和原则内容块的形象
信贷:Pixabay

希望这篇文章的一个免费的PDF版本吗?

完成下面的表格,我们将电子邮件您的PDF版本“不要听信炒作:促进人工智能道德和原则”

听与
喋喋不休地说
0:00
注册免费听这篇文章
谢谢你!听这篇文章使用上面的球员。
阅读时间:

本文是一篇观点文章奈文r . Narain博士写的。在这篇文章中表达的观点和意见的作者,不一定反映技术网络的官方立场。188金宝搏备用

这些天有很多炒作的使用人工智能(AI)在数据驱动的药物开发。令人难以置信的进步,和广泛,但多少信息是有效的?分辨是非的时候,识别周围的一些问题医疗技术的现状,并概述了一些对未来的解决方案。

开始,它是重要的认识到人性,和认识到真正的利害关系,首先我们使用AI的原因。这是想办法帮助人们通过使用所有的科学技术在我们的处理。如果人是重要的,如果我们人类是一个优先级,我们需要一个全面的了解行业的状态。我们不是讨论使用人工智能科学进步,但识别假说驱动和数据驱动的开发。

同样重要的是,我们保持我们的人性被道德和诚实的AI能做什么。经常索赔时对药物发现是已经发现新的生物。这也可以是好消息,但清晰是至关重要的。有很多的工作要从这里到批准使用的端点。发现并不是一个真正的发现,直到它已经被科学验证。我们正在处理的科学生与死,这需要诚实和透明,以及一个坚持适当的术语。

通过类似的测量,我们需要管理的期望。人工智能对我们来说是一个杰出的新工具使用,但我们必须面对现实它能做什么。我们可以使用它来移动针前端:加快准备试验,以确保我们正在做正确的试验和获得正确的病人参与。但AI不会减少FDA审查新药的时候了。AI不会减少时间商业启动药物一旦被批准。我们在伦理上摇摇欲坠,当我们过度承诺可以节省多少时间和金钱使用人工智能,在某种程度上的理想主义转向到欺骗,这是不负责任的。

我们还需要尽可能地诚实与病人和他们的家人这些技术到底能给他们带来什么。在一天结束的时候,最重要的病人是AI可能改变和完善自己的个人经验。最重要的重要的不要过度承诺,但我们可以乐观改进技术能带给病人的显现。

所以,结论是什么?我们能做什么来避免过度承诺,兑现的陷阱呢?我的经验告诉我,通过识别新兴技术的弱点在这个领域,我认为我们可以团结起来,加强系统和剔除冒名顶替者,每个人的利益。下面是一些具体的步骤。

首先,我们需要在同一页关于术语。这可能需要建立一个集中的AI字典项,第一步控制任何夸大和削减之前宣传的传播。这样的词发现、验证工具集,模型有绝对的定义,我们必须达成一致。我们避免混淆当我们讲同一种语言,并能理解对方的数据,识别和发现。

其次,我们的行业需要的指导下新协会特别关注道德在人工智能。它应该包括律师、伦理学家、医生、数学家、科学家、银行家和患者——真正的病人。我们需要输入从每个人参与医疗的旅程通过医生和药剂师给病人早期研究。我们不能指望解决问题我们不知道;我们需要反馈识别过程中的问题。统一协会会让我们思考我们周围真正的挑战,和流行的泡沫的未经证实的AI索赔。

第三,多样性和包容是很重要的。随时AI是用来构建模型,必须具有充分包容性,并考虑所有种族,性别在世界各地和不同社会经济水平。不幸的是,许多公司现在在象征主义指引下,只有敷衍了事或象征性的努力给性别或种族平等的出现在一个研究。然而,你的研究只是一样好你使用的资源,如果你的人口不能反映你服务的人口,你做什么好?

接下来,这将不是一个流行的想法,但是AI需要某种程度的监管。正确的类型的治理在监管环境中,我们如何相互作用和一定程度的监管验收算法和我们说,这一切是怎么出来的,被认为是研究vs膏是什么产品。别误会我,监管的研究可能是危险的,这我是敏感的,但是一旦有一个产品,我们需要明确方向如何导航的过程。

最后,我的最后一点是真正的战略路径的开始,这是一个专注于教育。数据科学家目前毕业计算生物学和人工智能程序需要更全面的和现实的培训行业在等着他们。所做的工作施瓦茨曼中心伦理研究所AI在牛津大学,麻省理工学院施瓦茨曼学院的计算在这个领域脱颖而出。他们认识到流域40年前在医学伦理学的发展,并寻求解决人工智能的伦理和治理从同样的哲学立场。我们需要更多这样的项目。它是至关重要的,我们的下一个伟大的思想家理解保持联系的重要性我们人类发展社会和道德负责的技术进步。

关于作者:

奈文博士r . Narain BERG LLC的首席执行官,临床分期,人工intelligence-powered生物技术利用其专有平台地图疾病和彻底改变在肿瘤治疗,神经学和罕见的疾病。

广告
Baidu