1984年出生的女性软件工程师使用内存映射mmap的方式大幅降低本地运行LLaMa 所需的内存量。

🖥 Github

运行LLaMa 30B 现在只需要5.8G 内存,本地跑大模型门槛越来越低。
-- 来源

via chatGPT中文社区 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney 2.8折起
[email protected]