大语言模型(LLM)正推动机器学习形成“all-in-one”赋能范式,即一个基础模型支撑千万下游任务。“兼听则明、偏听则暗”,现实生活中我们每个人通过听觉、视觉和触觉等手段对所处环境中各种信息进行融合处理,达到“眼观六路、耳听八方”效果,体现了人类所具有通用智能的显著特点。将大语言模型向多模态大模型扩展是当前学术研究热点。多模态大模型通过融合文本、图像、视频、音频等多种模态异构数据,进行“书同文、车同轨”模式统一表征学习,在视觉问答、跨模态检索、文本生成图像/视频等多模态内容理解与生成任务中展现出强大能力,推动了自然语言处理、计算机视觉、语音识别等领域的技术革新。以多模态大模型为代表的人工智能基础设施建设,在智能创作、自动驾驶、医疗诊断和虚拟现实等多个应用场景中展现出巨大潜力。2024年多模态大模型高峰论坛暨第29期CSIG图像图形学科前沿讲习班将于2024年7月31日-8月2日在北京举办,会议由中国图象图形学学会主办,中国图象图形学学会前沿科技论坛委员会(筹)承办。本次论坛设置主旨报告和讲习班,邀请来自国内知名高校、研究机构和企业的专家,分享多模态大模型的最新技术进展和行业成果,并对多模态大模型的未来发展趋势进行展望与讨论。