随着科技的飞速发展,人工智能已经深入到我们日常生活的每一个角落。

从智能家居到自动驾驶汽车,人工智能不仅改变了我们的生活方式,还对社会结构和人类的角色产生了深远的影响。在这波技术浪潮中,我们看到了人工智能极大地提升了人类的生产力,但我们是否真正思考过人类与人工智能的关系?两者之间的互动是否真的是我们所期望的那样?

打开网易新闻 查看更多图片

图 | 从左至右:里德·霍夫曼()和 深科技记者 Ren

为了寻找问题的答案,领英()联合创始人里德·霍夫曼()做了一次有趣而大胆的尝试,他与 GPT-4 进行了重度而深入的互动,并且把两者的互动整理、记录,最后编辑成了一本名为《GPT 时代人类再腾飞》(Impromptu)的书。

打开网易新闻 查看更多图片

图 | 里德·霍夫曼()(来源:里德·霍夫曼)

这本由人类和人工智能合作完成的书中,分享了自己与 GPT-4 的对话,包括他所输入的提示、提出的问题、GPT-4 的回应,以及由此引发的深入思考和独到见解。

“这不是一本详尽无遗的(介绍人工智能和 GPT-4 的)书,而更像是一篇游记,事关一趟非正式的勘探与发现之旅,”解释道,“由我和 GPT-4 在诸多道路中做出选择。”

打开网易新闻 查看更多图片

图 | 书封(来源:资料图)

我们有幸采访了他,他也毫无保留地分享了自己对人工智能未来发展的愿景。作为技术界的重要影响者和风险投资家,对人工智能的未来的见解不仅令人启发,而且对于任何渴望了解人类社会未来数字化轨迹的人来说都是必不可少的。

打开网易新闻 查看更多图片

取代?转型?还是增加?

随着人工智能走进我们的生活,一种“人工智能将取代人类大部分工作”的声音逐渐出现,电影和文学作品也经常描绘出一个由机器人统治的未来。在 ChatGPT 发布后,这种说法似乎得到了进一步印证。

不过并不认可这种说法。他承认,虽然某些人类活动,如驾驶和客服,可能会因为安全和效率的原因而更广泛地自动化,但在更多场景下,人工智能是人类的合作伙伴。

现在的商用飞机就是一个很好的例子。在飞行的大部分时间里,这些飞机都处在自动驾驶模式中。但飞行员的角色并没有因此而被取代,自动驾驶软件提高了飞机的安全性和效率,而飞行员作为人类的决策能力和随机应变同样重要。

在看来,人工智能不是来“取代人类的”,而是像“副驾驶”和“机器伙伴”一样辅助人类。“我不想将人工智能过度拟人化,”他表示,“但它将在帮助我们完成各种任务中发挥重要作用,从简单的数据检索到复杂的决策过程,我们可以通过提问的方式从它身上获得更多的信息和价值,就像现在我们遇到不懂的事情,可以去咨询朋友和同事一样。”

这可以让人类变得更强大,开辟新的前景。

打开网易新闻 查看更多图片

(来源:AI 生成)

人类进化和技术进步是深深地交织在一起的。从发明轮子到互联网的诞生,每一个重大的技术飞跃都是人类聪明才智和适应能力的结晶。汽车、火车、轮船,这些交通工具改变了我们与空间互动的方式,拓展了人类的能力,而人工智能也将扮演类似的角色。

人工智能就像是心智的蒸汽机(注:蒸汽机的发明开启了第二轮工业革命,因此这句话的引申含义是,人工智能对于心智来说是革命性的),它将帮助我们更好地完成许多我们正在做的事情,人类的能力会被放大,”说道。

因此,人工智能的到来,可能会让一些工作被取代,但更多的工作将转型和增加。

认为,被改变的工作将是那些涉及到“信息处理”和“信息生成”的工作。这里的“信息”不单单是文字信息或代码,而是与“决策”有关的信息。例如,通过文字需求绘制图片,根据症状开具处方等等。

至于那些会被创造出来的新职业,除了提示工程师(prompt engineer)之外,我们可能还要再等等才能看。但对此持乐观态度。

打开网易新闻 查看更多图片

充满挑战,但前途光明

我们看到了人工智能的好处,但也不能忽略它的应用和普及所带来的挑战。

围绕人工智能的最紧迫的关注点之一是偏见,它们主要来自于训练模型所用的数据。对此,提出了一个有趣的解决方案:使用人工智能来训练其他人工智能系统以减少偏见。通过设定特定的规则并使用人工智能来确保这些规则得到贯彻,或许可以更有效地减少模型中固有的偏见。这样一来,对偏见的纠正就不仅仅停留在人为的干预,而且人工智能可以花费相当于人类数百年的时间来确保偏见得到处理。

另一个挑战是数据隐私。认为,我们要区分数据量和数据性质之间的区别。尽管人工智能模型需要大量的数据,但它不一定必须使用私人或敏感信息。他认为,随着用户从人工智能中看到切实存在的好处,他们将更愿意分享数据,前提是他们的隐私不会受到威胁。

ChatGPT 和 GPT-4 只是生成式人工智能的用例之一,类似的还有 Stable Diffusion 和 Midjourney 等图像生成工具,这些工具引发了关于知识产权问题的争论。

在看来,这些来自艺术家和作家的主张更具挑战性:关于他们的作品被用来训练人工智能模型的担忧,本质上是他们“可能误解了模型的工作原理”。他指出,用于训练的数据量之大使得任何单一作品的贡献都是微不足道的。

“GPT 用了 1.4 万亿个单词进行训练,然后它抓取了我发在公开网络上的 10 万字,那我该按比例获得补偿吗?”他解释道,“我这 10 万字对模型的贡献不仅很小,更重要的是它难以量化。”

一个潜在的解决方案是,让模型训练借鉴搜索引擎的数据抓取,创作者可以选择是否将他们的作品包括在人工智能训练数据集中,比如打上不可收录的版权标签。

打开网易新闻 查看更多图片

(来源:AI 生成)

最后一个要重视的挑战是人工智能幻觉(hallucination)。这些幻觉本质上是人工智能输出的内容存在事实性错误。在著书的过程中,他也不止一次地遇到过这个问题。

“想用好 GPT-4 这类的工具,就要探索、试验和学习,不断地重复使用。如果答案不满意,就改进提示再试一次,”他表示。

对未来持乐观态度。他相信,随着人工智能模型的演变和进化,它们的准确性将得到提高。目前科技公司尝试的办法,比如整合搜索结果和其他数据来源,也可以进一步增强人工智能生成内容的可靠性。

强调,包括人工智能在内的技术,从来就不是中立的,本质上包含价值观。开发者在塑造这些价值观中起到了关键作用。为确保人工智能与人类的价值观和福祉保持一致,建议采取多方面的方法。

首先是清晰的沟通,开发者应明确阐述指导他们人工智能工具的价值观和原则;其次是保证质量,定期进行测试,以确保这些价值观得到一致的维护;最后是建立反馈渠道,与用户、企业和政府的开放沟通渠道可以提供宝贵的反馈,确保人工智能与社会需求保持一致。

打开网易新闻 查看更多图片

结语

另据悉,在技术领域,被视为创新和远见的灯塔,著有《高成长思维》的他也是硅谷最成功、最知名的创业者和投资人之一。

打开网易新闻 查看更多图片

图 | 书封(来源:资料图)

不难看出,是一个技术人文主义者。他对技术的发展充满乐观,但并不盲目,对人工智能的见解始终处于一个平衡的视角,承认这项技术的潜力和挑战,认为人工智能可以更好地放大人类的能力。

正如他在书中所写:面对人工智能的惊人潜力,一些人看到了算法的惊人变革力量,看到了一种将人类智慧的聚合力量应用于我们所从事的各种活动的新途径。也有一些人看到了大大小小的悲剧:多个行业的大量工作岗位消失;未经明确许可的侵犯知识产权的现象层出不穷;在咨询大语言模型后自杀的抑郁症患者。

或许在这个人类和人工智能共存的世界,我们每个人都应该思考一个问题:技术的终极目标是让我们做更少的工作,甚至不工作,还是更好地工作,创造更多的价值?

运营/排版:何晨龙

打开网易新闻 查看更多图片