中国电气传动网

第一电气传动平台



总访问量:384974

关键词搜索:

  • 工业机器人
  • 人工智能
  • 智能制造
  • 智能化
  • 自动化
  • 工业4.0
  • 互联网
  • 大数据
  • 中国电气传动
  • 工业自动化

【手机端】

站在道德制高点,美国在军事领域大力发展人工智能,意在何为?

   日期:2019-11-12     浏览:26    评论:0    
核心提示:近日,美国国防创新委员会率先推出《人工智能原则:国防部人工智能应用伦理的若干建议》,这是对军事人工智能应用所导致伦理问题的首次回应。站在道德制高点,美国在军事领域大力发展人工智能,意在为何?让我们一起来看看吧。

众所周知,人工智能技术遍地开花,被各行各业引用。著名天体物理学家斯蒂芬•霍金对人工智能充满期待,同时也满怀担忧:“有益的人工智能可以扩大人类的能力和可能性,但失控的人工智能很难被阻止。所以,在开发人工智能时必须保证符合道德伦理与安全措施的要求。”近日,美国国防创新委员会率先推出《人工智能原则:国防部人工智能应用伦理的若干建议》,这是对军事人工智能应用所导致伦理问题的首次回应。站在道德制高点,美国在军事领域大力发展人工智能,意在何为?让我们一起来看看吧。

站在道德制高点,美国在军事领域大力发展人工智能,意在何为?

此报告为美国国防部在战斗和非战斗场景中设计、开发和应用人工智能技术,提出了“负责、公平、可追踪、可靠、可控”五大原则。

“负责”,人工智能是人的产物,人是能动的、具有个人价值观和情感好恶的责任主体。人工智能技术的决策者和开发专家,必然要体现人的主体作用,他们理所当然应该为自己的决定和行为造成的结果负责。在军事应用中,因为造成的后果可能具有毁灭性,所以,“负责”成为第一原则。

“公平”,对人而言,不同领域、职级的所有人在人工智能面前是平等的。人工智能系统应无差别地向人机界面提供它的处理结果,依据结果作出判断、采取行动,机会也是公平的。

“可追踪”,人工智能系统都必须是可追溯和可审计的,不管是纯技术过程,还是人机交互过程。人工智能系统,要如实记录数据收集、标记、运用算法等,所生成决定的整个过程和系统所作的决定,要确保其数据和系统的透明度,还要确保其数学模型的透明度。

“可靠”,对使用者,在使用人工智能系统过程中是安全、可靠和不作恶的。

“可控”,人工智能系统的作用和能力应该永远置于人的控制之下。就要严格限定对人工智能的授权,同时要加强对技术失误的警惕、督查和检验。如,美军在伊拉克战场上使用的智能机器人就有失控向己方开火的先例。

可见,军事上使用人工智能,可从以下四方面举措着手:

一、通过国防部官方渠道,将这些原则实现正式化。

二、建立一个为国防部服务的人工智能指挥委员会。

三、确保人工智能伦理原则的正确执行。需要相关各方在原则条款和内涵理解上都达成共识。与此同时,必须在军用人工智能开发应用的各个领域,制定明确的、可操作的执行细则和标准规范,这是人工智能伦理原则得到正确执行的基础。

四、召开有关人工智能安全的年度会议。由于人们对人工智能伦理问题的认识还处于初级阶段,已经制定的原则是否合理有效也有待检验。

美方认为,制定人工智能伦理原则,可使各方面专家在智能系统研发之初就法律、道德和伦理问题进行早期沟通,对于推动技术发展和结果可靠具有关键意义。

若人工智能在军事领域应用不加以限制,其引发的后果是人类难以承受的。美国率先提出人工智能军事应用,令其占据了道德制高点,获得权威话语权,同时,有助于它大力发展在军事领域人工智能应用,其行为可想而知。

总之,人工智能在军事领域所展现的能力和潜力,被认为将重塑未来战争形态。在此重要关头,美国率先推出军用人工智能伦理原则,无疑同样具有争夺智能化战争定义权的用意。达成这样的目标,将使美国在军用人工智能发展上获得主导权和领先优势。

欲了解更多,请多多关 注一下中国电气传动网

 
点赞
 
更多>同类新闻资讯
0相关评论



版权与免责声明:

① 凡本网注明"来源:中国电气传动网"的所有作品,均由本网编辑搜集整理,并加入大量个人点评、观点、配图等内容,版权均属于中国电气传动,未经本网许可,禁止转载,违反者本网将追究相关法律责任。

② 本网转载并注明自其它来源的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品来源,并自负版权等法律责任。

③ 如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,我们将在您联系我们之后24小时内予以删除,否则视为放弃相关权利。

推荐图文
推荐新闻资讯
点击排行
 
关闭