据《中国日报》报道,英国媒体11月30日报道,美国国防部再次斥巨额投资并邀请英国专家协助开发战争机器人。但与以往不同的是,这次他们要制造的是“机器人战士”,这些“战士”不会像它们的人类战友那样触犯战争罪。
英国道德专家参与研发
到2010年为止,美国在战争机器人研究项目上的投资将达到40亿美元。美国陆军和海军同时雇佣了道德规范领域的英国专家,协助研制不会违反《日内瓦公约》的新型战争机器。这种机器人既能够自主辨别何时、向谁开枪,并不是像电影《终结者》那样超道德的杀人机器。
尽管目前已有大量的机器人在伊拉克和阿富汗战场上“服役”,但这一代机器人都是由人工进行远程控制的。而新一代的机器人将能够发现攻击的目标及其所使用的武器,区分敌方目标是武器火力还是武装士兵,并能够识别救护车和平民这样的软目标。专家会将符合《日内瓦公约》的战争规则写入到软件中,这样机器人就可以知道什么时候开枪了。
反对者称机器人也会犯错
然而,一些分析人士担心,制造完全不犯错误的机器人是不可能的。英国谢菲尔德大学的沙尔奇教授说:“我已经在人工智能领域工作多年,但让机器人来决定人类的终结,这种想法太可怕了。”
加拿大华人网 http://www.sinoca.com/