从VR到杀人机器,硅谷大佬如何改写AI战争伦理 99xcs.com

文 | 钱钱

编辑 | 阿景

最近科技圈有个事儿挺让人揪心,美国有家叫Anduril的公司,正在把人工智能往军事上使劲儿用。

他们老板PalmerLuckey最近放了句狠话,说AI做军事决策比人类更有"道德优越性"。

久久小常识(www.99xcs.com)™

这话一出,不少人都坐不住了。

你可能不知道PalmerLuckey是谁,这哥们儿以前搞出了Oculus虚拟现实眼镜,后来卖给了Facebook。

本来是个搞娱乐科技的人才,现在却一头扎进了军事AI的研发。

这种转变还真让人有点看不懂。

久久小常识(www.99xcs.com)™

Anduril公司现在在捣鼓的东西可不少,什么无人机集群作战系统,自动化防御网络,听着就挺吓人。

最让人担心的是,他们正在开发能自主识别目标并发动攻击的AI系统。

这就意味着,以后战场上可能出现机器自己决定打谁、杀谁的情况。

从VR到杀人机器,硅谷精英的危险转身

PalmerLuckey创办Anduril的时候才24岁,正是意气风发的年纪。

久久小常识(www.99xcs.com)™

他曾经说过,要"用硅谷的效率重塑国防工业"。

这话听着挺励志,但仔细想想,军事科技这东西可不是闹着玩的。

本来以为搞VR的人都挺有创意,没想到转身就去研究杀人武器了。

Anduril公司开发的Lattice人工智能指挥平台,能把无人机、地面车辆和各种传感器连在一起,实时处理战场数据,还能自动做出反应。

久久小常识(www.99xcs.com)™

这已经超出了单纯的"防御"范畴。

Anduril最近展示的"自杀式无人机"系统,更是让人不寒而栗。

这种无人机能自主寻找目标并发动攻击,整个过程几乎不需要人工干预。

Luckey还嘴硬,说这是为了"减少平民伤亡",可谁来保证这些机器不会出错呢?

久久小常识(www.99xcs.com)™

科技公司掺和军事项目也不是新鲜事了。

以前冷战那会儿,IBM、柯达这些大公司都帮军方搞过研发。

但现在不一样,人工智能这东西能自己做决定,风险可比以前大多了。

Google之前还信誓旦旦说不把AI用于武器开发,结果去年年底悄悄把这条承诺给删了。

他们现在跟Anduril合作,用大语言模型优化军事目标识别系统。

久久小常识(www.99xcs.com)™

这转变也太快了点,让人有点措手不及。

核按钮交给算法?人类正在失去控制权

最让人担心的还不是常规武器,而是核武器系统也开始用AI了。

美国去年5月还说核武器控制权必须归人类,结果到了11月,就改口要搞"AI增强核指挥系统"。

久久小常识(www.99xcs.com)™

这政策变来变去的,到底想干嘛?

就是想让AI帮忙更快地做核打击决策。

以前人类需要几十分钟才能判断情况,现在有了AI,可能几秒钟就能搞定。

但问题是,核战争这事儿能这么草率吗?一个错误决策,可能就是几百万人的性命啊。

去年有群研究人员做了个挺吓人的实验,他们让GPT-4、Claude这些大模型模拟国际冲突决策。

久久小常识(www.99xcs.com)™

结果发现,这些AI模型居然很容易就做出用核武器的决定,还会说"既然有这种武器,那就用吧"这种话。

看到这个结果我鸡皮疙瘩都起来了。

机器毕竟是机器,它没有人类对生命的敬畏,也没有道德感。

它做决策只看数据和概率,根本不会考虑一颗核弹下去会有多少家庭支离破碎。

久久小常识(www.99xcs.com)™

把这种决定权交给算法,简直是在玩火。

1983年那会儿,苏联有个预警系统误报美国发射了核导弹,全靠一个叫彼得罗夫的军官拍板说"这肯定是误报",才没引发核战争。

要是换成AI,估计直接就启动反击程序了。

这种时候,人类的犹豫和怀疑反而是种保护。

久久小常识(www.99xcs.com)™

现在全球连个管军事AI的统一规矩都没有,各国都在偷偷搞。

美国、俄罗斯、中国,谁也不知道对方的军事AI发展到什么程度了。

这种情况下,真怕哪天哪个系统出点小错,就把全世界都拖下水。

Anduril这样的公司,还有那些跟军方合作的科技巨头,眼里好像只有钱和技术突破,根本不管这些东西可能带来的灾难。

久久小常识(www.99xcs.com)™

他们总说技术是中性的,可造出来的东西是杀人还是救人,难道心里没数吗?

科技发展本来是为了让世界更好,现在倒好,有些人非要把聪明才智用在怎么更高效地杀人上。

AI军事化这事儿,真该好好管管了。

至少得有个底线,那就是,不管技术多先进,最终决定生死的权力,必须牢牢抓在人类自己手里。

久久小常识(www.99xcs.com)™

说真的,要是有一天,我们的命运被一串代码掌控,那人类千百年建立起来的文明和道德,还有什么意义呢?科技公司该有点责任感,别光顾着赚钱,忘了自己身上的担子有多重。

现在国际社会最该做的,就是赶紧坐下来商量个规矩,给军事AI划条红线。

哪些能做,哪些绝对不能做,得说清楚。

久久小常识(www.99xcs.com)™

特别是核武器这种能毁灭世界的东西,绝不能让AI沾边。

科技进步是好事,但要是没了伦理底线,再先进的技术也可能变成灾难。

希望那些搞军事AI的人能好好想想,你们到底是在保护世界,还是在把全人类推向危险的边缘。

这事儿关系到每个人的安危,真不是闹着玩的。

久久小常识(www.99xcs.com)™

机器的"道德优越性"?我看还是算了吧,人类这点判断力和良知,可不能随便交给算法。

毕竟,我们不是在玩游戏,输了可以重来。

这是现实世界,生命只有一次。