大模型時代
企業(yè)對人才的需求,變了 !

算法工程師 招聘被大模型方向主導,薪資遠超傳統(tǒng)算法崗位

  • 崗位要求
  • 工作職責

1. 熟練掌握Llama/GPT/BLOOM等大模型原理并具有實際落地經驗
2. 對NLP大模型的技術,包括GPT、Instruction Tuning等有較為深入的了解和實踐
3. 對常見大模型,如Llama/GPT/BART等技術實現(xiàn)和落地有實際經驗
4. 熟練掌握GPT或其他大模型的等算法訓練范式
5. 具備NLP大模型訓練經驗者優(yōu)先
6. 參與或者領到過大型預訓練大模型落地項目
7. 在NLP文本生成或大模型預訓練方向有較深入研究
8. 對模型量化、性能優(yōu)化有一定的了解

1. 從事大語言模型(LLM)預訓練算法研究、訓練、應用
2. 負責自然語言處理(NLP)方向基于GPU的并行多機多卡訓練、高性能模型推理等
3. 參與研發(fā)預訓練大模型等下一代人工智能核心技術
4. 基于海量對話數據,負責探索ChatGPT相關算法研究
5. 負責公司垂域智能對話算法開發(fā)
6. 跟蹤與探索NLP業(yè)界前沿技術,具有快速復現(xiàn)及落地的能力
7. 前沿技術跟進研究,支持公司通用類和垂類預訓練模型研發(fā)及效果持續(xù)優(yōu)化
8. 優(yōu)化大模型finetune性能,線上實時inference性能

GPT-4 拉開“通用人工智能 (AGI) ”序幕,算法領域邁入 “大模型” 時代

  • ChatGPT 的推出席卷全球科技行業(yè),徹底顛覆人們對于傳統(tǒng)AI行業(yè)和 技術的認知
  • GPT-4 繼續(xù) GPT 系列神話,在語言、數學、編程、視覺、醫(yī)學、法律和心理學領域表現(xiàn)出色,接近人類水平
  • 鑒于 GPT 系列模型巨大的應用潛力和市場價值,國內頭部互聯(lián)網公司迅速跟進,先后推出了“文言一心”、“通義千問”、“日日新”等中文領域大語言模型
  • 大模型開源社區(qū)異?;钴S,短時間內推出多個性能比肩 GPT 系列模型的開源大模型
  • 大廠公司高管及投資人紛紛下場創(chuàng)業(yè),傳統(tǒng)互聯(lián)網公司紛紛加大大模型方面的投入,AIGC 及大模型領域呈現(xiàn)出前所未有的蓬勃發(fā)展景象
  • AIGC 及大模型領域人才需求井噴,企業(yè)開放大量高薪崗位

行業(yè)新鮮時報

  • 螞蟻集團證實技術研發(fā)團隊正在自研語言和多模態(tài)大模型 — “貞儀”。
  • 中科院計算所推出多語言大模型“百聆”,百聆是一個以 LLaMA 為基座的遵循指令的 LLM。評測實驗表明,百聆使用更少的參數實現(xiàn)了與 GPT-3.5-turbo 相當的性能。
  • 北大團隊開源首個中文法律大模型 — ChatLaw,并針對大語言模型和知識庫的結合問題給出了法律場景下合理的解決方案。
  • 中國聯(lián)通發(fā)布圖文大模型“鴻湖圖文大模型1.0”。鴻湖圖文大模型是首個面向運營商增值業(yè)務的大模型,目前擁有8億訓練參數和20億訓練參數兩個版本,可實現(xiàn)以文生圖、視頻剪輯、以圖生圖等功能。
  • 由上海人工智能實驗室(上海AI實驗室)牽頭,并聯(lián)合國內外頂級科研機構、高校及醫(yī)院共同發(fā)布全球首個醫(yī)療多模態(tài)基礎模型群“OpenMEDLab浦醫(yī)”。
  • 美圖發(fā)布七大AIGC新品,包括WHEE、開拍、WinkStudio、美圖設計室2.0、AI數字人生成工具、RoboNeo美圖AI助手、MiracleVision奇想智能等;
  • 冪律智能聯(lián)合智譜AI發(fā)布基于中文千億大模型的法律垂直大模型—PowerLawGLM。PowerLawGLM 法律大模型,基于智譜目前效果最好的ChatGLM130B通用千億對話大模型進行聯(lián)合研發(fā)。
  • 國內AI準獨角獸企業(yè)實在智能 (Intelligence Indeed) 的自研垂直領域大語言模型—TARS(塔斯) 歷經半年研發(fā)后,正式開啟內測。
  • 理想汽車在發(fā)布會上展示了車載大語言模型MindGPT,理想汽車智能空間算法科學家陳偉博士表示:“我們以大模型MindGPT”為核心,打造了新一代多模態(tài)人機交互體系,全力支撐空間交互2.0的落地,讓全家人都能輕松使用AI,讓理想同學成為每一個家庭的新成員。

培養(yǎng)大模型人才
需要這樣的課程

課程大綱:大廠大牛帶路,直擊大廠標準,實戰(zhàn)貫穿全程

階段一 深度學習基礎 點擊收起

核心技術

  • 深度學習基本概念
  • 深度學習經典模型解析
  • 深度學習模型優(yōu)化策略解析
  • 深度學習GPU原理與應用方法
  • 深度學習GPU并行訓練策略解析

掌握技能

  • 深度學習基本概念
  • Transformer 核心原理
  • BERT 系列模型核心原理
  • T5 模型核心原理
  • 深度學習模型優(yōu)化策略
  • GPU架構原理與CUDA編程原理
  • GPU在深度學習訓練/推理過程中的應用
  • GPU多卡并行技術

項目實戰(zhàn)

深度學習模型多GPU訓練實戰(zhàn)
  • 1模型訓練流程詳解
  • 2模型訓練環(huán)境搭建
  • 3模型 CPU/GPU 訓練代碼開發(fā)
  • 4模型 多GPU并行訓練代碼開發(fā)
  • 5模型推理代碼開發(fā)
  • 6模型效果評估與優(yōu)化

課程特點

覆蓋深度學習基礎理論,全方位講解深度學習基本概念,從經典模型出發(fā),深入淺出地講解經典模型原理,對深度學習模型優(yōu)化策略、GPU原理、CUDA編碼原理、GPU應用方法及GPU多卡加速策略等核心技術進行細致講解。 通過算法原理、企業(yè)經驗及代碼實踐三位一體的課程安排,帶你進入深度學習的世界,補齊你在模型理解和應用過程中的短板,讓你更好的掌握深度學習基礎技能。

階段二 大模型基礎 點擊展開

核心技術

  • 大模型技術概述
  • GPT 系列模型核心原理詳解
  • LLaMA 系列模型核心原理詳解
  • BLOOM 系列模型核心原理詳解
  • Baichuan 系列模型核心原理詳解
  • Baichuan 系列模型源碼詳解
  • ChatGLM 系列模型核心原理詳解
  • Qwen 系列模型核心原理講解
  • Langchain 框架核心原理詳解

掌握技能

  • GPT系列模型核心原理(GPT1/GPT2/GPT3/GPT4/InstructGPT)
  • LLaMA系列模型核心原理(LLaMA/LLaMA2/Alpaca/Vicuna/BaiChuan2)
  • 優(yōu)秀開源大模型核心原理(BLOOMZ/ChatGLM3/Qwen1.5)
  • 大模型應用框架LangChain核心原理

項目實戰(zhàn)

Langchain + LLM 本地化Agent實戰(zhàn)
  • 1Langchain六大核心模塊原理詳解與代碼實現(xiàn)
  • 2Langchain + LLM 本地化Agent系統(tǒng)設計
  • 3Langchain + LLM自定義Tools實現(xiàn)
  • 4Langchain + LLM系統(tǒng)部署
  • 5Langchain + LLM應用接入

課程特點

從論文出發(fā),全面覆蓋大模型核心技術原理,深入淺出的講解大模型相關技術、核心模型原理及模型源碼,為之后的大模型實踐打下堅實的理論基礎。

階段三 多模態(tài)基礎 點擊展開

核心技術

  • 多模態(tài)技術概述
  • Vit模型核心原理詳解
  • CLIP模型核心原理詳解
  • ALBEF模型核心原理詳解
  • BLIP/BLIP-2模型核心原理詳解
  • LLaVA模型核心原理詳解
  • Qwen-VL模型核心原理詳解

掌握技能

  • 多模態(tài)技術核心原理
  • 經典多模態(tài)模型核心原理(Vit/CLIP/ALBEF/BLIP)
  • 多模態(tài)大模型核心原理(BLIP-2/LLaVA/Qwen-VL)

課程特點

從論文出發(fā),全面覆蓋經典多模態(tài)模型及多模態(tài)大模型,深入淺出的講解多模態(tài)相關技術。

階段四 大模型微調基礎 點擊展開

核心技術

  • 大模型微調概述
  • 大模型微調核心要素
  • 大模型微調數據收集與評估
  • 大模型Tuning技術詳解
  • 大模型PEFT技術詳解
  • 大模型全參數微調技術詳解
  • 大模型CoT/ToT/GoT/AoT 技術詳解
  • 大模型 DPO 技術詳解
  • 大模型內容生成技術詳解

掌握技能

  • 大模型微調所需的核心要素
  • 大模型微調的數據收集和處理過程
  • 使用ChatGPT 獲取高質量訓練數據
  • 大模型Tuning技術核心原理 (Prompt-Tuning/Instruction-Tuning/P-Tuning)
  • 大模型PEFT技術核心原理
  • 大模型全參數微調技術核心原理(DeepSpeed)
  • 大模型CoT/ToT/GoT/AoT 技術詳解
  • 大模型DPO技術核心原理
  • 大模型微調代碼實現(xiàn)與參數配置
  • 通過大模型微調解決傳統(tǒng)NLP任務

項目實戰(zhàn)

基于常規(guī)NLP任務的大模型微調實戰(zhàn)
  • 1NLP常規(guī)任務方案設計
  • 2大模型訓練環(huán)境搭建
  • 3大模型微調代碼詳解
  • 4大模型微調參數詳解
  • 5基于常規(guī)NLP任務的大模型微調

課程特點

大模型微調技術棧全覆蓋,深入講解所有主流大模型微調技術,深入講解大模型核心訓練代碼,通過使用大模型完成傳統(tǒng)NLP任務,讓你真正的掌握大模型微調的整體流程。

階段五 大模型實戰(zhàn) 點擊展開

核心技術

  • 實戰(zhàn)項目—基于大模型的可視化AIGC問答系統(tǒng)開發(fā)
  • AIGC問答系統(tǒng)—大模型訓練環(huán)境搭建
  • AIGC問答系統(tǒng)—大模型數據收集與 instruction 設計
  • AIGC問答系統(tǒng)—通用大模型微調代碼開發(fā)(支持多模型/多框架)
  • AIGC問答系統(tǒng)—Baichuan2多GPU LoRA微調實現(xiàn)
  • AIGC問答系統(tǒng)—Baichuan2多GPU 全參數微調實現(xiàn)
  • AIGC問答系統(tǒng)—Qwen1.5多GPU LoRA微調實現(xiàn)
  • AIGC問答系統(tǒng)—Qwen1.5多GPU 全參數微調實現(xiàn)
  • AIGC問答系統(tǒng)—大模型性能評估體系搭建
  • AIGC問答系統(tǒng)—大模型部署與服務接口開發(fā)
  • AIGC問答系統(tǒng)—大模型界面化調用系統(tǒng)開發(fā)
  • 項目總結與答疑

掌握技能

  • 基于大模型的智能對話系統(tǒng)架構
  • 大模型訓練的環(huán)境搭建與數據收集過程
  • 支持多種模型多種訓練框架的微調代碼開發(fā)
  • 大模型多GPU LoRA/全參數微調技巧
  • 大模型評估策略
  • 大模型訓練的完整開發(fā)流程
  • 大模型界面化調用系統(tǒng)

課程特點

從實戰(zhàn)項目出發(fā),基于企業(yè)應用最廣泛的Baichuan2及Qwen1.5,從零搭建基于大模型的AIGC對話系統(tǒng),讓學員掌握從環(huán)境搭建、數據構建、大模型微調到界面化調用的整個過程,掌握大模型微調的完整鏈路,并建立界面化的大模型調用系統(tǒng)。

案例展示

課程講師:AI大廠實戰(zhàn)型專家

  • 姜夏字節(jié)跳動AI算法專家

    從業(yè)7年,先后在字節(jié)跳動、VIVO人工智能研究院等公司從事智能對話、知識圖譜、大模型應用等工作,曾主導研發(fā)面向億級用戶的智能對話系統(tǒng)及百億量級知識圖譜系統(tǒng),具有深厚的理論積累和豐富的模型應用經驗

  • 劉毅阿里巴巴達摩院AI高級算法專家

    先后就職于百度自然語言處理部,阿里巴巴達摩院,擔任算法研究員,在ACL/EMNLP/COLING等會議發(fā)表多篇學術文章,并擔任頂會審稿人。從事大型語言模型訓練及應用5年,曾主導百億參數模型研發(fā)迭代,在自然語言處理,預訓練,強化學習方面有豐富的理論及實戰(zhàn)經驗

適學人群

  • 算法工程師

    了解機器學習/深度學習基本
    概念的在職算法工程師

  • 在讀大學生

    相關專業(yè)的
    在校學習大學生

  • AI愛好者

    對人工智能有濃厚的興趣
    想從事相關工作者

只要你熱愛學習,熱愛編程,改變世界的任務就會落在你身上,
一起行動起來吧