2018/12/26 19:56 腾讯科技
12月26日消息,据外媒报道,美国军方正不顾一切地试图在人工智能(AI)领域占据一席之地,美国国防部官员相信,AI将在未来的战争中帮助美国取得胜利。
但国防部的内部文件和对高级官员的采访清楚地表明,美国国防部的AI努力正因被一家科技巨头抛弃而陷入举步维艰的境地。为摆脱这种困境,美国国防部正制定新的战略,以便在一场新的战斗中抢占先机,即争夺硅谷AI人才的大战。
这场战斗以出人意料的失败开始。今年6月份,谷歌宣布退出美国国防部的Project Maven,该项目使用了这家科技巨头的AI软件。这一努力旨在创建算法,帮助情报分析人员从视频片段中识别出军事目标。
两个月前,数千名谷歌员工签署了一份请愿书,呼吁公司停止与美国国防部就该项目的合作。
据五位熟悉有关Project Maven内部讨论的消息人士透露,在美国国防部内部,谷歌的退出带来了挫折和沮丧,甚至是愤怒情绪。Project Maven是美国军方首次在战争中使用AI的重大努力。
6月28日,美国国防部向大约50名官员分发了一份内部备忘录,并称:“我们在毫无准备的情况下陷入了有关战略态势的争论中。”备忘录中显示,谷歌的退出让美国国防部感觉措手不及,这个部门最近面临对军方AI发展计划至关重要的专家疏远它的风险。
备忘录警告说:“如果我们不赢得关键支持者的‘民心’,我们就无法有效地与我们的对手竞争。”
事实上,Project Maven还远未完成,2017年的开支成本仅为7000万美元左右,这是五角大楼当年6000亿美元海量预算中的一小部分。但谷歌的声明表明,美国国防部仍在努力应对更大的公共关系和科学挑战。
迄今为止,谷歌的回应是试图为其AI工作树立新的公众形象,并寻求由科技公司高管组成的咨询委员会对国防部的AI政策进行审查。
美国国防部感到焦虑的原因很明显:它想要一条在未来武器装备中集成AI的平稳道路,这一愿望已经得到了数十亿美元承诺的支持,以努力确保这些系统得到军事指挥官的信任和接受,此外还需要在技术本身上增加数十亿美元的研发支出。
AI在战争中所发挥的确切作用还不清楚。许多集成有AI技术支持的武器不涉及机器算法的决策,但它们存在这样做的潜力。正如美国国防部在8月份的一份战略文件中所说的那样:“支持无人驾驶系统的技术将使开发和部署自主系统成为可能,这些系统可以独立选择目标,并以致命武器发动攻击。”
美国国防官员称,开发AI技术与创造其他军事技术不同。尽管军方很容易就能从大型国防承包商那里获得最先进的战斗机和炸弹,但AI和机器学习的创新核心却属于硅谷的非国防科技巨头。
官员们担心,如果没有他们的帮助,美国军方可能会输掉一场不断升级的全球军备竞赛。在这场竞赛中,AI将扮演越来越重要的角色。
前科技创业家、美国国防部下属国防数字服务(DDS)部门主管克里斯·林奇(Chris Lynch)在接受采访时表示:“如果你决定不参与Project Maven,实际上你也未能参与讨论是否将AI或机器学习用于军事行动。”林奇表示,AI已经开始被用于战争,所以现在的问题是,哪些美国技术专家将会设计它?
林奇聘用了多名技术专家,并花了几年时间研究美国国防部面临的问题。林奇表示,AI技术太重要了,即使该机构不得不依赖不那么专业的专家,它也要继续这方面的研发。
但是,林奇补充说:“如果没有业内精英的帮助,我们将雇佣能力远远不如他们的人去开发能力更差的产品,这种产品可能会让年轻的男女陷入危险的境地,而且可能会因此而出现错误。”
谷歌不太可能很快改弦更张。今年6月份,谷歌宣布不会寻求续签Maven合同不到一周后,随即发布了一套AI指导原则,规定该公司不会将AI用于“帮助开发武器或其他用于直接伤害人类的产品”。
自那以来,美国国防部许多官员抱怨谷歌不爱国,并指责该公司仍在与中国政府合作。中国政府是美国在AI技术领域最大的竞争对手。
据知情人士透露,Project Maven的目的是通过在无人机和其他平台的视频片段中标记对象类型,简化情报分析人员的工作,帮助分析人员收集信息,并缩小对潜在目标的关注范围。但算法并没有选择目标或命令发动打击,对于那些担心先进计算和新形式致命暴力相结合的人来说,这是一种长期恐惧。
尽管如此,谷歌的许多人还是以令人担忧的方式看待这项计划。
一位熟悉内部讨论的前谷歌员工表示:“他们立即想到了无人机,然后他们又想到了机器学习和自动目标识别。我认为这个项目开发的AI很快就会升级,让它们能够进行有针对性的杀戮,发动有针对性的战争。”
谷歌只是美国国防部试图将AI技术集成到现代战争中的科技巨头之一,微软和亚马逊也参与了其相关努力。据美国国防部现任和前任官员称,在谷歌6月份宣布退出消息后,十多家大型国防公司与美国国防官员接洽,表示愿意接手这项工作。
但硅谷活动人士也表示,该行业不能轻易忽视科技从业者的道德疑虑。上述前谷歌员工表示:“那些要对股东负责的人以及想要获得价值数百万美元国防部合同的人,与那些必须建造这些东西、并在道义上不愿意成为同谋的普通员工之间,存在着明显的分歧。”
为了弥合这一鸿沟,缓解AI工程师的强烈反对,美国国防部迄今采取了两项举措。
第一项举措于6月底正式启动,旨在创建一个联合AI中心,旨在监督和管理军方的所有AI工作,最初的重点是对公关友好的人道主义任务。它将由杰克·沙纳汉中将(Jack Shanahan)负责,他此前的主要任务是管理Project Maven。
这是个政治上十分精明的决定,它的第一个重大举措是找出一种利用AI帮助军队在自然灾害中组织搜索和救援的方法。
美国国防部AI战略首席设计师布伦丹·麦考德(Brendan McCord)在10月份的一次技术会议上说:“我们的目标是拯救生命。我们军队的根本任务是维持和平。这是为了阻止战争和保护我们的国家。这是为了提高全球稳定,也是为了最终保护启蒙运动产生的一系列价值观。”
第二项举措是要求一个由技术专家组成的咨询小组——国防创新委员会(Defense Innovation Board)对AI道德进行新的审查,该委员会包括谷歌前首席执行官埃里克·施密特(Eric Schmidt)和职业社交网站LinkedIn联合创始人里德·霍夫曼(Reid Hoffman)。
这项审查旨在制定军队使用AI的指导原则,国防创新委员会目前由前国防部长创新问题顾问约书亚·马尔库塞(Joshua Marcuse)管理,他现在是该委员会的执行董事。
这个咨询团队将花费大约9个月的时间,与AI专家举行公开会议,同时美国国防部的一个内部小组也将审议问题。然后,该委员会将向国防部长詹姆斯·马蒂斯(James Mattis)提出建议,说明AI应该或不应该被集成到武器项目中。
马尔库塞在接受采访时说:“这必须是真正意义上的审查,并愿意对我们将要做的事情、我们不会去做的事施加一些限制,明确界限所在。”
为了确保辩论的公正性,马尔库塞说,国防创新委员会正在寻找对军方在AI领域中所扮演角色持批评态度的人士。
他说:“对于国防部将如何应用这些技术,他们有各种各样的担忧,我认为这些担忧是合理的,因为我们拥有在某些情况下侵犯公民隐私的合法权力,有实施暴力的合法权力,同时还有发动战争的合法权力。”
美国国防部的官员们表示,解决这些问题至关重要,因为美国管理AI人才的方式不同,它要想法设法吸引外界的专家。
马尔库塞说:“这些专家必须选择与我们合作,而我们我们需要向他们提供一个有意义、可验证的承诺,让他们有与我们合作的真正机会,让他们相信自己是好人。”
马尔库塞表示,尽管他愿意讨论未来对AI使用的潜在限制,但他认为国防创新委员会不会试图改变美国国防部依赖AI自动武器的现有政策。2012年,奥巴马政府出台了这一政策。
2017年5月,特朗普政府对这项政策进行了小幅度的技术修订,但并不妨碍军方在其任何武器系统中使用AI。美国国防部的多名官员表示,该政策规定,指挥官对任何集成AI的武器系统都有“适当程度的人类判断水平”。
然而,这项政策也要求,在计算机被编程启动致命行动之前,包含它的武器系统必须经过美国国防部三位高级官员的特别审查。但到目前为止,还没有进行过这类特别审查。
据一位熟悉细节的前国防官员透露,2016年末,在奥巴马政府任期结束的时候,美国国防部曾对这项2012年颁布的政策进行了新的审视,并在一份机密报告中决定,不需要做出重大改变。
不过,特朗普政府在内部讨论过,并让军方的武器工程师更清楚地认识到,这项政策并不禁止在武器系统中使用AI。特朗普担心,军方工程师一直不愿将AI集成到他们的设计中。
硅谷有关Project Maven的争论至少暂时阻止了这一讨论,促使美国国防部高层首先试图赢得国防创新委员会的支持。
但不管怎样,五角大楼打算将更多AI整合到其武器中。马尔库塞说:“当一项新技术正在彻底改变战争模式时,我们不会袖手旁观。这对美国民众、对被派往危险战场的军人以及依赖我们的盟友来说都不公平。”
榜单收录、高管收录、融资收录、活动收录可发送邮件至news#citmt.cn(把#换成@)。