OpenAI在其官方网站上发布了一则令人瞩目的公告,宣布他们已经开始训练下一代大模型:预计这个新模型将达到通往AGI的“下一个能力水平”。

打开网易新闻 查看更多图片

终究还是ilya败给了奥特曼?ilya刚离职,Open ai就宣布开始训练下一代大模型,到底是什么样的智能水平,让ilya做出这样的选择。

马斯克甚至在社交媒体上回复,明年即可达到AGI水平。马斯克是得到什么内幕消息了吗?

打开网易新闻 查看更多图片

什么是AGI?

先来简单了解一下什么是AGI。全称Artificial General Intelligence,指的是能够执行任何智能任务的人工智能系统。

与目前我们常见的专用人工智能不同,AGI具有自主学习、推理、规划、感知、理解和创造力等能力,AI可以完全像人类一样在多种环境中工作生活代替人类做任何事情。

打开网易新闻 查看更多图片

在前几天,OpenAI已经发布了一款名为GPT-4o的新生成式人工智能模型。GPT-4o能够实现像真人对话一样的“实时互动”,通过显著提高模型的交互速率,再次震撼了业界。

打开网易新闻 查看更多图片

虽然GPT-4o已经发布,但发布会上展示的一些功能,还并未完全向公众开放。 OpenAI表示,他们仍在探索GPT-4o模型的功能,并计划在未来几周内向一小部分可信伙伴开放GPT-4o的音频和视频处理功能。

而且在使用的这段时间,有很多人反应 GPT-4o的推理能力和指令跟随能力不如GPT-4。

Open ai还把GPTs默认使用的GPT-4强制替换为了GPT-4o,搞的大家很不满意。或许4o更擅长的是语音和视频吧。

打开网易新闻 查看更多图片

与新模型训练的消息一同宣布的,还有OpenAI董事会成立的安全与保障委员会。这个委员会由Bret Taylor、Adam D’Angelo、Nicole Seligman和Sam Altman(CEO),将负责就所有OpenAI项目的关键安全与保障决策提供建议。

打开网易新闻 查看更多图片

安全与保障委员会的首要任务是在接下来的90天内评估并进一步完善OpenAI的流程和安全措施。90天结束时,委员会将以符合安全和保障的方式公开分享采纳建议的更新。

自己训练自己指定安全规则?这真的可以吗?国外有网友在Open ai官方媒体下留言:新的安全委员会。照片放了4张奥特曼的照片,看来大家都对奥特曼自己监管,自己研发的事情不是很认同啊。

打开网易新闻 查看更多图片

我觉得政府和相关机构也需要制定相应的政策和法规,来引导和规范AGI的发展。这包括数据隐私保护、算法透明度、伦理标准等方面,以确保AGI技术的健康发展。

OpenAI的最新动态,勾起来很多人对AGI的期待。但同时,也让我们看到了AGI的发展不仅仅是技术问题,更是一个安全、伦理、教育、政策和社会接受度等多方面的复杂问题。

对于AGI,你怎么看?

都看到这里了感觉得还不错,随手点个赞、在看、转发三连支持一下吧。

欢迎加入星球!