打开网易新闻 查看更多图片

为了理解人工智能(AI)需要如此多能量的一个关键原因,我们可以想象一下:好比一个计算机芯片是当地图书馆的某个部分,一套人工智能算法是拥有借阅特权的研究人员,每当算法需要数据时,它就会去到图书馆(存储芯片),检查数据并将其带到另一个芯片(处理器),以执行某个功能。

人工智能需要海量的数据,这意味着在这两个芯片之间来回传输的书籍相当于数十亿本,这一过程需要消耗大量电力。至少十年来,研究人员一直试图制造出可以在存储数据的地方处理数据的芯片,从而节省电力。斯坦福大学教授菲利普·王(Philip Wong)说,“你不用把书从图书馆带回家,而是去图书馆做你的工作。”他是存储芯片领域的顶级专家,同时也是台积电(TSMC)的顾问。

这个过程——通常被称为内存计算(in-memory computing)——面临着技术上的挑战,现在刚刚走出研究阶段……

继续阅读

全文共计1893字