💡 节能人工智能:研究人员用一个灯泡的能量驱动大型语言模型
加州大学圣克鲁斯分校的研究人员开发了一种突破性的大型语言模型,该模型仅消耗 13 瓦 的功率,相当于一个标准灯泡。这比在典型硬件上运行的当前模型效率高出 50 多倍。该团队通过消除计算成本高昂的 矩阵乘法 过程(现代神经网络中的主要部分)实现了这一目标。尽管进行了这种简化,但这个 开源 的新模型仍保持着与 Meta 的 Llama 等领先模型相当的性能。这一突破可能会彻底改变人工智能的可访问性,有可能使功能强大的语言模型能够在资源有限的设备(如智能手机)上运行。
(HackerNews)
via 老裕泰 - Telegram Channel
加州大学圣克鲁斯分校的研究人员开发了一种突破性的大型语言模型,该模型仅消耗 13 瓦 的功率,相当于一个标准灯泡。这比在典型硬件上运行的当前模型效率高出 50 多倍。该团队通过消除计算成本高昂的 矩阵乘法 过程(现代神经网络中的主要部分)实现了这一目标。尽管进行了这种简化,但这个 开源 的新模型仍保持着与 Meta 的 Llama 等领先模型相当的性能。这一突破可能会彻底改变人工智能的可访问性,有可能使功能强大的语言模型能够在资源有限的设备(如智能手机)上运行。
(HackerNews)
via 老裕泰 - Telegram Channel