日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

650 亿参数大模型预训练方案开源可商用!LLaMA 训练加速 38%,来自明星开源项目

發布時間:2023/12/31 综合教程 31 生活家
生活随笔 收集整理的這篇文章主要介紹了 650 亿参数大模型预训练方案开源可商用!LLaMA 训练加速 38%,来自明星开源项目 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

650 億參數大模型的預訓練方案,發布即開源。訓練速度較傳統方案提升 38%。

這就是由 Colossal-AI 最新發布的類 LLaMA 基礎大模型預訓練方案。

要知道,在“百模大戰”背景下,誰擁有自家大模型,往往被視為核心競爭力。在這個節點下,愿意開源大模型的公司少之又少。但自己從頭訓練一個大模型,對技術、資金都有很高要求。

由此,Colossal-AI 最新的開源動作,可以說是應時勢所需了。并且它還不限制商業使用,開箱即用僅需 4 步。

具體項目有哪些內容?一起往下看~

開源地址:https://github.com/hpcaitech/ColossalAI

32 張 A100 / A800 即可使用

實際上,自從 Meta 開源 LLaMA 后,掀起了一波微調項目熱潮,如 Alpaca、Vicuna、ColossalChat 等都是在其基礎上打造的。

但是 LLaMA 只開源了模型權重且限制商業使用,微調能夠提升和注入的知識與能力也相對有限。

對于真正想要投身大模型浪潮的企業來說,訓練自己的核心大模型非常重要。

開源社區也此前已獻了一系列工作:

  • RedPajama:開源可商用類 LLaMA 數據集(無訓練代碼和模型)

  • OpenLLaMA:開源可商用類 LLaMA 7B / 13B 模型,使用 EasyLM 基于 JAX 和 TPU 訓練

  • Falcon:開源可商用類 LLaMA 7B / 40B 模型(無訓練代碼)

但這些都還不夠,因為對于最主流的 PyTorch+GPU 生態,仍缺乏高效、可靠、易用的類 LLaMA 基礎大模型預訓練方案。

所以 Colossal-AI 交出了最新的開源答卷。僅需 32 張 A100 / A800,即可搞定 650 億參數類 LLaMA 大模型預訓練,訓練速度提升 38%。

而像原生 PyTorch、FSDP 等,則因顯存溢出無法運行該任務。

Hugging Face accelerate、DeepSpeed、Megatron-LM 也未對 LLaMA 預訓練進行官方支持。

開箱即用、4 步搞定

而這一項目真正上手起來也很簡易。共有四步:

  • 1、安裝 Colossal-AI

  • 2、安裝其他依賴項

  • 3、數據集

  • 4、運行命令

具體代碼如下:

第一步、安裝 Colossal-AI。

gitclone-bexample/llamahttps://github.com/hpcaitech/ColossalAI.git
cdColossalAI
#installandenableCUDAkernelfusion
CUDA_EXT=1pipinstall.

第二步、安裝其他依賴項。

cdexamples/language/llama
#installotherdependencies
pipinstall-rrequirements.txt
#useflashattention
pipinstallxformers

第三步、數據集。

默認數據集 togethercomputer / RedPajama-Data-1T-Sample 將在首次運行時自動下載,也可通過-d 或 —dataset 指定自定義數據集。

第四步、運行命令。

已提供 7B 和 65B 的測速腳本,僅需根據實際硬件環境設置所用多節點的 host name 即可運行性能測試。

cdbenchmark_65B/gemini_auto
bashbatch12_seq2048_flash_attn.sh

對于實際的預訓練任務,使用與速度測試一致,啟動相應命令即可,如使用 4 節點 * 8 卡訓練 65B 的模型。

colossalairun--nproc_per_node8--hostfileYOUR_HOST_FILE--master_addrYOUR_MASTER_ADDRpretrain.py-c'65b'--plugin"gemini"-l2048-g-b8-a

如果使用 Colossal-AI gemini_auto 并行策略,可便捷實現多機多卡并行訓練,降低顯存消耗的同時保持高速訓練。

還可根據硬件環境或實際需求,選擇流水并行 + 張量并行 + ZeRO1 等復雜并行策略組合。

其中,通過 Colossal-AI 的 Booster Plugins,用戶可以便捷自定義并行訓練,如選擇 Low Level ZeRO、Gemini、DDP 等并行策略。

Gradient checkpointing 通過在反向傳播時重新計算模型的 activation 來減少內存使用。

通過引入 Flash attention 機制加速計算并節省顯存。用戶可以通過命令行參數便捷控制數十個類似的自定義參數,在保持高性能的同時為自定義開發保持了靈活性。

Colossal-AI 最新的 ShardFormer 極大降低了使用多維并行訓練 LLM 的上手成本。

現已支持包括 LLaMA 的多種等主流模型,且原生支持 Huggingface / transformers 模型庫。

無需改造模型,即可支持多維并行(流水、張量、ZeRO、DDP 等)的各種配置組合,能夠在各種硬件配置上都發揮卓越的性能。

Colossal-AI:大模型系統基礎設施

帶來如上新工作的 Colossal-AI,如今已是大模型趨勢下的明星開發工具和社區了。

Colossal-AI 上述解決方案已在某世界 500 強落地應用,在千卡集群性能優異,僅需數周即可完成千億參數私有大模型預訓練。

上海 AI Lab 與商湯等新近發布的 InternLM 也基于 Colossal-AI 在千卡實現高效預訓練。

自開源以來,Colossal-AI 多次在 GitHub 熱榜位列世界第一,獲得 GitHub Star 超 3 萬顆,并成功入選 SC、AAAI、PPoPP、CVPR、ISC 等國際 AI 與 HPC 頂級會議的官方教程,已有上百家企業參與共建 Colossal-AI 生態。

它由加州伯克利大學杰出教授 James Demmel 和新加坡國立大學校長青年教授尤洋領導開發。

Colossal-AI 基于 PyTorch,可通過高效多維并行、異構內存等,主打為 AI 大模型訓練 / 微調 / 推理的開發與應用成本,降低 GPU 需求等。

其背后公司潞晨科技,近期獲得數億元 A 輪融資,已在成立 18 個月內已迅速連續完成三輪融資。

開源地址:https://github.com/hpcaitech/ColossalAI

參考鏈接:https://www.hpc-ai.tech/blog/large-model-pretraining

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節省甄選時間,結果僅供參考,所有文章均包含本聲明。

總結

以上是生活随笔為你收集整理的650 亿参数大模型预训练方案开源可商用!LLaMA 训练加速 38%,来自明星开源项目的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。