
文 | 钱钱
编辑 | 阿景
最近科技圈有个事儿挺让人揪心,美国有家叫Anduril的公司,正在把人工智能往军事上使劲儿用。
他们老板PalmerLuckey最近放了句狠话,说AI做军事决策比人类更有"道德优越性"。
这话一出,不少人都坐不住了。
你可能不知道PalmerLuckey是谁,这哥们儿以前搞出了Oculus虚拟现实眼镜,后来卖给了Facebook。
本来是个搞娱乐科技的人才,现在却一头扎进了军事AI的研发。
这种转变还真让人有点看不懂。
Anduril公司现在在捣鼓的东西可不少,什么无人机集群作战系统,自动化防御网络,听着就挺吓人。
最让人担心的是,他们正在开发能自主识别目标并发动攻击的AI系统。
这就意味着,以后战场上可能出现机器自己决定打谁、杀谁的情况。
从VR到杀人机器,硅谷精英的危险转身
PalmerLuckey创办Anduril的时候才24岁,正是意气风发的年纪。
他曾经说过,要"用硅谷的效率重塑国防工业"。
这话听着挺励志,但仔细想想,军事科技这东西可不是闹着玩的。
本来以为搞VR的人都挺有创意,没想到转身就去研究杀人武器了。
Anduril公司开发的Lattice人工智能指挥平台,能把无人机、地面车辆和各种传感器连在一起,实时处理战场数据,还能自动做出反应。
这已经超出了单纯的"防御"范畴。
Anduril最近展示的"自杀式无人机"系统,更是让人不寒而栗。
这种无人机能自主寻找目标并发动攻击,整个过程几乎不需要人工干预。
Luckey还嘴硬,说这是为了"减少平民伤亡",可谁来保证这些机器不会出错呢?
科技公司掺和军事项目也不是新鲜事了。
以前冷战那会儿,IBM、柯达这些大公司都帮军方搞过研发。
但现在不一样,人工智能这东西能自己做决定,风险可比以前大多了。
Google之前还信誓旦旦说不把AI用于武器开发,结果去年年底悄悄把这条承诺给删了。
他们现在跟Anduril合作,用大语言模型优化军事目标识别系统。
这转变也太快了点,让人有点措手不及。
核按钮交给算法?人类正在失去控制权
最让人担心的还不是常规武器,而是核武器系统也开始用AI了。
美国去年5月还说核武器控制权必须归人类,结果到了11月,就改口要搞"AI增强核指挥系统"。
这政策变来变去的,到底想干嘛?
就是想让AI帮忙更快地做核打击决策。
以前人类需要几十分钟才能判断情况,现在有了AI,可能几秒钟就能搞定。
但问题是,核战争这事儿能这么草率吗?一个错误决策,可能就是几百万人的性命啊。
去年有群研究人员做了个挺吓人的实验,他们让GPT-4、Claude这些大模型模拟国际冲突决策。
结果发现,这些AI模型居然很容易就做出用核武器的决定,还会说"既然有这种武器,那就用吧"这种话。
看到这个结果我鸡皮疙瘩都起来了。
机器毕竟是机器,它没有人类对生命的敬畏,也没有道德感。
它做决策只看数据和概率,根本不会考虑一颗核弹下去会有多少家庭支离破碎。
把这种决定权交给算法,简直是在玩火。
1983年那会儿,苏联有个预警系统误报美国发射了核导弹,全靠一个叫彼得罗夫的军官拍板说"这肯定是误报",才没引发核战争。
要是换成AI,估计直接就启动反击程序了。
这种时候,人类的犹豫和怀疑反而是种保护。
现在全球连个管军事AI的统一规矩都没有,各国都在偷偷搞。
美国、俄罗斯、中国,谁也不知道对方的军事AI发展到什么程度了。
这种情况下,真怕哪天哪个系统出点小错,就把全世界都拖下水。
Anduril这样的公司,还有那些跟军方合作的科技巨头,眼里好像只有钱和技术突破,根本不管这些东西可能带来的灾难。
他们总说技术是中性的,可造出来的东西是杀人还是救人,难道心里没数吗?
科技发展本来是为了让世界更好,现在倒好,有些人非要把聪明才智用在怎么更高效地杀人上。
AI军事化这事儿,真该好好管管了。
至少得有个底线,那就是,不管技术多先进,最终决定生死的权力,必须牢牢抓在人类自己手里。
说真的,要是有一天,我们的命运被一串代码掌控,那人类千百年建立起来的文明和道德,还有什么意义呢?科技公司该有点责任感,别光顾着赚钱,忘了自己身上的担子有多重。
现在国际社会最该做的,就是赶紧坐下来商量个规矩,给军事AI划条红线。
哪些能做,哪些绝对不能做,得说清楚。
特别是核武器这种能毁灭世界的东西,绝不能让AI沾边。
科技进步是好事,但要是没了伦理底线,再先进的技术也可能变成灾难。
希望那些搞军事AI的人能好好想想,你们到底是在保护世界,还是在把全人类推向危险的边缘。
这事儿关系到每个人的安危,真不是闹着玩的。
机器的"道德优越性"?我看还是算了吧,人类这点判断力和良知,可不能随便交给算法。
毕竟,我们不是在玩游戏,输了可以重来。
这是现实世界,生命只有一次。
)
)
(ocsc))
)
)

)
)
)
)
)
)
)
)
)
)