-
图解大模型训练之:Megatron源码解读2,模型并行
• 2023-06-03 13:31 -
压缩即智能:为什么 ChatGPT 拥有智能?
• 2023-06-02 20:30 -
脚踏实地:来自Google的企业级推荐算法实践
推荐系统 • 2023-06-02 17:00 -
吴恩达来信:吴老师喊你上课啦!
• 2023-06-01 12:03 -
SIGIR2023 | ID vs 模态: 推荐系统ID范式有望被颠覆?
推荐系统 • 2023-06-01 11:03 -
CVPR 2023 | 基于内容融合的字体生成方法
• 2023-06-01 10:32 -
谷歌大模型指令微调:The Flan Collection
谷歌 • 2023-05-31 15:01 -
谈谈做WeShop过程中对AIGC产品的一些思考----写在WeShop正式版上线
• 2023-05-31 13:02 -
策略产品必知系列之一文详解“特征工程”
• 2023-05-31 00:32 -
吴恩达来信:更“省”数据的大型预训练模型
大数据 • 2023-05-29 12:33 -
【AI周报】每周精选干货文章(第15期)
AI周报 • 2023-05-28 23:07 -
世界的参数倒影:为何GPT通过Next Token Prediction可以产生智能
• 2023-05-28 15:30 -
LLM时代NLP研究何去何从?一个博士生的角度出发
• 2023-05-26 17:32 -
大模型只有"大"一条路吗?
• 2023-05-25 21:31 -
JD 招推荐算法工程师
推荐系统 • 2023-05-25 11:31 -
CTR预估之Wide&Deep系列模型:DeepFM/DCN
• 2023-05-23 22:02 -
开源大模型论文/代码/模型文件汇总
• 2023-05-23 18:31 -
出一份试题,评测国内各种对标 ChatGPT 的大语言模型(二)
• 2023-05-23 14:32 -
上交清华提出中文大模型的知识评估基准C-Eval,辅助模型开发而非打榜
• 2023-05-23 12:32 -
开源大模型斯坦福Alpaca(小羊驼)——指令调优的LLaMA模型——100美元媲美GPT3.5
• 2023-05-22 17:01 -
【AI周报】每周精选干货文章(第14期)
AI周报 • 2023-05-21 23:03 -
聊聊LM的故事和近况
• 2023-05-21 22:01 -
开源大模型LLaMA(羊驼)论文详解——Facebook母公司Meta推出,超越GPT-3
• 2023-05-21 21:31 -
【征文】DLP@RecSys 2023:第五届面向高维稀疏数据的深度学习实践国际研讨会
大数据 • 2023-05-19 11:02 -
授人以渔:学算法,我是如何记笔记的?
• 2023-05-19 07:30 -
家谱树:大模型的前世今生
• 2023-05-18 23:00 -
吴恩达来信:超越测试集——prompting改变了机器学习
• 2023-05-18 19:33 -
支持多模态的ChatGLM模型-VisualGLM-6B
• 2023-05-18 10:32 -
清华ChatGLM底层原理详解——ChatGPT国内最强开源平替,单卡可运行
• 2023-05-17 18:30 -
万字长文|从0-1系统性的了解大语言模型LLM研究进展
• 2023-05-17 07:32
算法周报
AIWeekly
管理员
实时周报:https://github.com/cbamls/AI_Tutorial
- 0 标签
- 0 帖子
- 0 回帖