MIT人工智能与基础交互研究中心教授Max Tegmark提醒道:“我们正处于人工智能的‘奥本海默时刻’。”
奥本海默时刻指的是一种往日经验失效,未知劫难即将来临的预感,这种对不确定事物的危险感知,令世界的命运难以捉摸。
AI的奥本海默时刻即将到来
这个名字最初被应用到第一次原子弹爆炸之后。奥本海默是世界上第一颗原子弹的名义建造者,原子弹的出现,让世界建立了新的秩序,从它之后,世界上的一切都不同了。
原子弹可以在顷刻间夺去五位数的生命,而掌握这个东西的关键,竟然只是一个轻巧的按钮。
我们害怕它带来的威胁,却又期盼着它能给人类带来福音。这种恐惧和欣喜的感觉,在AI人工智能出现后再次来临。
奥本海默:世界上第一颗原子弹的名义建造者
人工智能的双面性
近年来,随着AI技术的发达,人工智能无数次被拿来和原子弹类比,两者虽然形态完全不同,但本质上都是相似的。
2018年,openAI发布了第一代GPT产品,随后AI技术发展迅速起飞。这是一场高科技的狂欢,人们不断开发AI的新作用。
医疗行业变革:gpt技术助力医生提高诊疗质量
科研人员想着怎么让他发挥出更大的作用;商人想着怎么利用AI开启潮流赚更多钱;更多的人在享受AI所带来的便利,用科技改变生活。
现在,人们对于人工智能的理解已经初具雏形。生活中,AI充当着“老管家”的角色,它可以根据指令执行任务,给人们提供更便利的生活;它也被应用到网络中,帮助人们完成工作。
ai管家时代
但与此同时,AI还出现了相反的一面,比如说在国庆节期间,小米董事长雷军火了。网上出现了大量的恶搞雷军AI语音视频,背后使用者利用AI技术合成,从而达成自己的目的。
最后雷军不得不回应,说这让自己很是困扰,还希望大家不要玩了。
雷军回应AI语音包
每日经济新闻:国庆期间连骂网友七天?雷军回应“雷军AI语音”被恶搞:让自己很困扰,希望大家别玩了
如果说这只是轻微的负面效果,那AI在不法分子手里,就是犯罪利器。
有案例揭露,诈骗分子用AI技术,将自己替换成受害者熟人,以视频方式进行借钱诈骗。由于是熟人,且面容声音都一样,在不知不觉的情况下,受害者就落入了圈套。
AI换脸诈骗
最严重的,是有公司职员被欺骗,因为是老板亲自给他打了视频电话,要求转账。
还有诈骗分子利用AI语音合成,模仿受害者亲朋好友的声音进行诈骗,从而损失巨大。此类诈骗事件目前开始频发,这也让人们开始注意到AI的负面影响。
央视报道AI骗局
昆明市西山区人民法院:“换脸”“拟声”!西山法院:警惕新型AI骗局
威胁初现
AI的确能给人们带来便利不错,可那也要看谁掌握着AI的主动权。科技时代已经来临,它改变的不仅仅是人们的生活方式,还有人们的战争方式。
没错,AI真正的威胁一小部分在于对人类生活的影响,还有绝大部分威胁在于AI应用在战场上,当做毁灭人类的武器。
奥地利外长 沙伦贝格
目前世界上有两个战场正处于白热化阶段,一是俄乌战场,二是巴以冲突。这两场战争中,均出现了AI驱动的致命性自主武器系统。
2024年4月,以色列媒体率先爆料称,以色列军方正在加沙测试一款AI作战系统,AI能够快速判断猎杀目标的时间、地点和方式,而以色列已经将37000人锁定为目标。
以色列陆军使用未经测试的AI工具轰炸
他们知道其中有一部分人不是武装分子,但他们却并没有予以监督,并且发动了打击行动,从而让这场战争变得更加严重。
在另一个战场上,由五角大楼主导的智能系统进展被曝光。AI能够将任何探测手段的结果合并在一起,包括但不限于卫星、雷达、红外等等,以帮助打击方快速识别出打击目标。
AI监视塔
目标确认后,打击方只需要将数据接入战斗机或无人机,这些机器就能进行自主化打击。
毫无疑问,在战场上,这种东西是必要的,它能帮助己方快速扩大战场优势。然而,我们不得不对AI决策产生担忧。
无人机加入战场
令机器成为战场决策者,这个是非常可怕的,它需要制衡,需要人类去监管,需要保证AI的绝对安全,如果人类不对其加以干涉,让AI进入国防基础设施领域,那未来的某一天,核武器的按钮或许会被交到AI人工智能手里。
AI被不法分子利用是可怕的,同样,如此快速的AI发展也是可怕的,因为往往在我们为AI更智能而感到欣喜时,它们或许就能像科幻电影中一样,可以控制现实世界了。
央视新闻:世界周刊丨AI的“奥本海默时刻”?
超越人类的AI
有人认为,这种观点是科幻片看多了产生的幻觉,AI再怎么更新迭代,它都是人类所创造出来的,它没有情感,只会学习并输出。没有感情只有技巧的物体,怎么会取代人类产生自主意识呢?
事实是,人类在不断增加AI的智商。人们希望AI能够服务于人类,所以它需要无所不知,无论是世界的大框架,还是生活中的琐碎事宜,AI堪称是全能。
另外,在经过人类一层层调教培训升级后,AI要比人类更加聪明。原则上,两个超级物种很难在地球上共存并且处于平衡状态,所以AI和人类,很有可能会站在对立面上。
这种可好可坏,可以被应用于任何目标的东西,正在快速进化,而那些曾经被认为是科幻电影的东西,也有出现的可能性。
美国最近做了一项研究,结果令许多人倒吸一口凉气。目前最好的AI系统愚弄了42%的人,让人类以为它是人。
根据一位国外专家的研究,他表示人类有10%-25%的可能性被AI消灭。
所以我们究竟应该怎么对待AI?
AI系统在战场
解决
首先我们对AI能力划分了五个等级,到了第三级的时候,AI的能力就已经超越人类;四级时AI具备自主意识,人类将沦为次等物种;第五级的AI,将开启宇宙智能进化的新历程。
根据顶尖科学家的呼吁,对于AI的安全监管将会以三方面。第一,国际合作治理AI安全,这是全人类的事情,合作是非常重要的。
守护ai安全,共话向善未来
第二,从上到下制定完全一致的标准,让人工智能被规范和约束,再在此基础上销售可信任的人工智能系统。
第三,为AI制定“红线”,让AI始终处于人们的严厉监管之下,从而保证从生产制造到终端都是安全的。
AI革命已经出现,奥本海默时刻也已经来临,究竟是福音还是灾难,目前人类才是主导者。
界面新闻:中外科学家发出AI安全警告:我们正处于人工智能的“奥本海默时刻”