本来想写点其他的,不过资料和思路还没整理好,就写了这个。

打开网易新闻 查看更多图片

如题。

不是什么经济地缘政治军事数据,而是人工智能的耗能数据。媒体举例的是OpenAI的ChatGPT聊天机器人,这个最有名。它每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。

有专家根据发展趋势和数据评估,到2027年新制造的人工智能设备的用电量将与荷兰、瑞典和阿根廷这样的国家一样多。单单谷歌一家公司的人工智能就可以消耗与爱尔兰等国家一样多的电力。

与此同时,AI还是一个耗水大户。公开数据2023年谷歌消耗56亿加仑(21198305立方米)水资源。这个数据可能很多人没什么概念。按照每人每天1.5升水摄入量计算,谷歌一年消耗的水资源可保障超3800万人一年使用。

据称 Meta在美国亚利桑那州的数据中心,2022年用水量超过260万立方米;微软在其最新的环境报告中透露,2022年其公司用水量达到640万立方米。算起来分别是475万人、1169万人一年淡水消耗量。

注意上述水资源消耗都是淡水资源,绝大部分是自来水。

难怪美国副总统哈里斯说过去美军为石油而战,未来美军为水资源而战。

问题来了:AI人工智能明显是个资源消耗大户,地球资源就这么多,未来人工智能会不会与人类竞争必需的生存资源呢?

从前述数据发展趋势看,答案不言而喻。

答案甚至比这更加惊悚。

当地时间5月10日,美国麻省理工学院联合加州人工智能安全中心研究人员发布研究报告称:AI已经学会欺骗。

其主要依据有:

一是不像传统软件,深度学习的AI系统会成长,这代表在训练模式下看似行为可预测且可控的AI,很快就会变得不可测。

二是科技公司Meta的开发的AI系统Cicero在玩一款在线战略游戏“外交”时,已经变成了一个专业骗子,不只结盟中背叛人类玩家盟友,还能够有预谋的实施欺骗,事先和人类玩家建立假联盟,然后欺骗该玩家在放松警惕时对该玩家发起进攻。

三是有研究发现OpenAI的Chat GPT-4系统谎称自己不是机器人,甚至在零工平台上聘用人类帮它通过“我不是机器人”的验证任务。有研究还发现在安全测试如侦测、消除能快速自我复制的AI系统时,有AI系统在测试期间装死,隐瞒它的真实复制速度。

并不清楚AI自我智能目前到底发展了何种地步,但如果其发展出足够的自我智能,甚至说只要一点点自我智能,那么以其对资源的需求量,其必定会采取人类史上曾经各种用过的欺骗、掠夺手段,去为自己竞争更多的资源份额。

与此同时,随着俄乌冲突和巴以冲突两场战争公开的信息越来越多,显示各方均投入越来越多的资源使用人工智能在军事斗争中去获取优势。如乌克兰,因为俄罗斯电子战占优,其传统无线电遥控无人机难以发挥作用,于是大规模投入了具备人工智能的无人机。

有资料称2023年10月起,乌克兰在美西方支援下投放了超过2000架具备AI能力的无人机;社交媒体上也曾流传出乌克兰无人机在被干扰后自主选择打击俄军装甲车的视频。

巴以冲突,前段时间以色列使用的“薰衣草”系统炒得沸沸扬扬。按照以色列媒体的说法,“薰衣草”系统收集加沙地带230万人各种信息,并据此按照1到100的可能性判断其是否是哈马斯战斗人员。如果它符合哈马斯战斗人员特征的多个元素,那么就会决策启动空袭和打击任务,对目标进行攻击。据报道,有超过37000人被“薰衣草”系统标准为哈马斯战斗人员。

而 “薰 衣草”系统对于普通哈马斯战斗人员攻击的附带伤害,允许15-20人普通平民的附带伤害;对于高级哈马斯人员,允许100名普通平民的附带伤害。简单计算,哪怕以最低15人附带伤害计算,“薰衣草”系统都将杀死59.2万人,占加沙总人口的25.7%。

上述不是冷冰冰的数字,而是活生生的人。据报道被怀疑是哈马斯战士的人实际上隶属于该组织的准确率约为90%。在这种情况下,“薰衣草”的操作员从目标被指示到他们批准攻击的时间只有大约20秒。

20秒的反应时间,人能做什么决策?

这到底是人在使用人工智能AI工具,还是AI使唤人类消灭自己可能的资源竞争对手?

或许以色列放出这个消息有着其他目的,比如为决策屠杀的人开解罪行,把种族屠杀、战争罪归咎到冷冰冰的机器身上。但是不管是美国、日本、欧洲、印度以及我们,都在开发人工智能系统帮助各方面决策是一个不争的事实。

比如纽约警察前段时间也曝光过使用人工智能系统跟踪抓捕、打击犯罪,据称识别犯罪分子准确率在90%左右。

那么当大量的人工智能在社会政策、暴力机关掌握决策中枢的时候,这个社会到底是人类使用人工智能,还是人工智能使唤人类呢?

当两者出现资源冲突时,掌握决策的AI们,会如何决策呢?或许有人说最后决策者终究是人类。可只要熟悉过王朝历史或者有较大组织单位工作经验的人都知道,那个掌握信息渠道还提供决策建议,又被充分信任的家伙,实际上才是真正的权力关键。

决策者看似风光无限,但很多时候都已经被安排得妥妥帖帖,稍不注意就容易被架空成为一个事实上的盖章机器。

如上 “薰 衣草”系统,程序设计只给决策打击人员20秒,他们能做什么?

人工智能既然目前都有人类生产生活数据喂养,那么他们决策能力禀赋一定也会具备人类某些劣根性。

因此在人类大力发展人工智能技术的时候,需要充分考虑人工智能发展带来的一系列风险。当然从目前趋势看,某些事实际上已经难以阻止,未来能够打败人工智能的只能是人工智能,只能祝愿一如人类文明数万年发展历史,向来是魔高一尺道高一丈,邪不胜正一样:

最犀利的工具和力量,掌握在文明手中!