V
主页
EMNLP2024分享会之多模态主题
发布人
分享信息 谢知晖 香港大学 VLFeedback: A Large-Scale AI Feedback Dataset for Large Vision-Language Models Alignment 夏鹏 UNC-Chapel Hill RULE: Reliable Multimodal RAG for Factuality in Medical Vision Language Models 张文祺 浙江大学 Multimodal Self-Instruct: Synthetic Abstract Image and Visual Reasoning Instruction Using Language Model 何宣 清华大学 MantisScore: Building Automatic Metrics to Simulate Fine-grained Human Feedback for Video Generation 主持人 李磊 香港大学在读phd
打开封面
下载高清视频
观看高清视频
视频下载器
从0开始训练1.4b中文大模型的经验分享
LLM推理加速新范式!推测解码(Speculative Decoding)最新综述
多模态模型CLIP深度讲解
Ferret-UI 2:拥有跨平台UI理解的多模态大模型
Research Track 8:比较关注的一些论文
EMNLP2024分享会之模型编辑主题
OpenRLHF:大规模分布式RLHF训练系统介绍
大语言模型编辑中的崩溃研究
【黑马】AI大模型训练营2期
英伟达发布MM-Embed:融合文本和图像的跨模态信息检索新模型
Deita: 用高质量数据在微调中“四两拨千斤”
MatchTime | 当LLM开始做足球解说:关于多模态模型在体育领域的应用
AI 开源风云突变:LLama “假开源”领衔,企业拥抱闭源或成唯一曙光?开源大模型
温和的走进深度学习(下)
EMNLP2024分享会之模型/推理加速主题
大语言模型多选题评估的偏见与鲁棒性
EMNLP2024分享会之可解释性、资源与评估
多模态RAG #1:与包含图像的文档聊天 | 学习如何使用 CLIP model 构建多模式 RAG 系统
腾讯推出最强开源,混合专家模型架构MoE,Hunyuan-Large 大模型,官方表示这是目前业界已经开源的基于 Transformer 的最大 MoE 模型
深度学习+遥感,这口饭得趁热吃啊!绝佳A会创新点!!!
多模态大模型发展简述及其微调部署实践(InternVL2为例)
无矩阵乘法LLM - 一个来自线性Transformer的视角
“显微镜”下的RAG:通过 RAGChecker 进行细粒度诊断评估
【附源码】2024最新53个大模型实战项目!练完即就业Ⅰ基础到框架Ⅰ适合小白入门_LLM_RAG_Agent_ChatGPT_Prompt
你的模型真的擅长数学吗?MathCheck:大模型数学推理能力的新评估范式
符号化规则强化CoT,大幅提高推理性能 - ACL2024
【NICE二期】章岳:AI海洋中的海妖之歌:大模型幻觉问题调研
LLaMA-MoE:基于参数复用的混合专家模型构建方法探索
大语言模型的知识编辑:问题,方法与挑战
【多模态机器学习 11-777 2023】卡耐基梅隆—中英字幕
MIT《TinyML和高效深度学习计算L16 - Vision Transformer|EfficientML.ai 2024 Fall MIT 6.5940》
生成式搜索引擎能否取代检索技术?
北大发布多模态大模型LLaVA-o1,推理计算Scaling新思路
【NICE一期】吴胜琼:NExT-GPT:全能多模态大语言模型
关于LLaMA & Alpaca 微调、代码生成、RAM配置等,更多你的疑问都在这里
【研三】自研多模态大模型架构——长时程、高鲁棒
【中英字幕】CS224N Winter2021 | Lecture 1 - Intro & Word Vectors
RNN卷土重来:基于门控记忆槽的线性注意力机制
在上下文学习中,语言模型究竟学到了什么? 探索结构化任务假说
bitnet.cpp 推理,速度超越 llama.cpp,内存最高降低 16 倍 | 附 BitNet b1.58 模型安装演示