2023年9月4日始智AI wisemodel社区官宣上线,经过1年的运营,wisemodel社区发展取得了一定的成绩。在此wisemodel上线周年之际,2024年9月13日wisemodel社区成功举办了2024 wisemodel社区开发者大会,暨2024 AI开源生态论坛,本次大会的主题是“共建开源开放生态,推动智能产业革命”。

此次大会共邀请19位来自大模型企业和高校的嘉宾,分享了当前大模型技术的前沿研究和成果,本次大会以线上直播的形式举行,累计近3万人线上观看,AI TIME、启迪之星、甲子光年、infoQ、硅星人、稀土掘金、CSDN等十余个平台同步直播。

首先,始智AI wisemodel社区创始人刘道全感谢社区用户的长期支持,感谢大会上主题分享的嘉宾、同步直播的合作平台等,以及所有线上观看的朋友们,wisemodel社区作为国内第一个正式运行的中立开放的AI开源平台,也是为数不多在踏踏实实在构建开源社区体系的平台,上线运营一年以来取得一定的成果,同时也遇到许多挑战。

随后进入到主题分享环节,上午设置了大模型综合论坛,涉及大模型知识增强和更新、代码生成模型、视频生成模型、生长模型、高质量数据集和非Transformer架构等主题;下午设置了多模态大模型和垂直模型与微调技术两个分论坛,多模态大模型分论坛涵盖了视频生成模型、图像生成模型、VLM模型等主题,垂直模型与微调技术包括了超拟人模型、化学大模型、医疗大模型、图大模型、司法大模型等方面。

张宁豫老师分享了大模型知识增强与更新的主题,介绍了大模型在实际应用中的知识增强与更新方法,分析当前主流技术如检索增强,并进一步从符号和参数视角介绍知识增强与更新新技术,探讨大模型的记忆、知识与能力的高效更新思路,以促进和提升大模型在复杂环境中的适应能力与知识保持效率。

刘道全总结了wisemodel社区上线运营一年取得的成果、遇到的挑战,并发布了新一年的战略方向,回顾过去一年wisemodel社区的发展过程,分享社区发展主要的数据,探讨了关于“镜像站”、“开源社区不赚钱”以及“大模型生态繁荣”等主题,发布“wisemodel端侧模型专区”、“wisemodel算力平台”、“wise-sora视频生成模型开源”,并推出“人工智能未来设计大赛-大模型专项赛”、“算育计划”和“数智雨林计划”,招募政府、算力伙伴、龙头企业等合作伙伴,最后发布新一期的“开源共创志愿者计划”。

马诺分享了零一万物小而强悍的Yi-Coder代码大模型,整体介绍了Yi-Coder模型强悍的性能,以及基于2.4T的高质量代码相关的Token训练过程,数据处理和数据配比等方面的优化等,然后从介绍Yi-Coder在不同基准上的评估结果,最后也对模型的不足也进行了总结。

张昱轩分享了智谱AI的开源工作,首先介绍智谱AI整体的开源地图,然后分别深入介绍了GLM系列、CodeGeex、CogVLM系列的工作,以及最新的CogVedioX模型,随后进一步分享了开源工作方面的经验和收获等,不仅为社区带来新的模型,同时社区的反馈也为模型的迭代更新带来助力。

姚轶群分享了智源研究院FLM系列模型技术发展和经验,首先介绍了FLM系列模型的发展脉络,详细介绍了1代和2代FLM模型的成果,介绍生成式预训练方法,引入MSG算子,先训练的更小参数的模型,基于生长流程,扩展到更大参数的模型。

罗璇分享了RWKV通往AGI之路,介绍了非Transformer的新架构RWKV的特点,并分享了RWKV最新模型的语言能力、泛化能力及能耗方面的评价,而后重点介绍了目前RWKV开源生态的一些成果和项目等。

李季杰分享了智源研究院指令微调数据集方面的成果,首先介绍了指令数据集在大模型领域的重要作用,然后重点介绍如何构建高质量的指令数据集,对数据集的规模和质量进行分析,而后介绍了infinity-instruct数据集的筛选、合成等工作,并分享基于infinity-instruct数据集微调之后的模型性能。

庄少彬分享了wisesora视频生成模型的高效训练方法,首先分享了视频生成模型相关的技术演进,以及Sora模型的技术要点,随后重点介绍了wisesora的模型架构,以及高质量视频caption的方法,并对wisesora训练过程中显存优化的方法,在80G显存的GPU上可以最高支持512帧视频的训练,最后介绍训练策略方面的优化工作。

达铖分享了快手可图大模型的技术揭秘,首先简单介绍快手大模型体系以及可图大模型插件生态,然后重点分享了可图模型文本表征方面的选择以及人类偏好对齐和模型对中文字符的支持等,而后介绍最近关于虚拟试穿方面的工作,并对视觉生成未来方向做了更多的展望。

卓乐分享了最新的自回归文生图模型的工作,首先介绍了文生图领域主要的技术路线,特别是扩散模型的成果,并指出扩散模型的局限,以及自回归模型优势和局限等,在Chameleon模型的启发下开展了Lumina-mGPT模型工作,重点介绍图像的表示方法以及SFT微调训练过程,展现模型的多轮对话、图像理解和图像生成和编辑方面的能力。

刘禹良老师分享了多模态大模型Monkey及在文档图像智能中的应用,首先介绍多模态模型的关键技术因素,特别是分辨率和图文对数据,然后介绍Monkey通过切片的方式来支持高分辨率,以及高质量图文对数据生成的方法,而后进一步分享了TextMonkey和Mini-Monkey的工作等,解决文档理解中更大分辨率和更长token长度。

赵波老师分享多模态大模型及其身智能中的应用,首先介绍多模型大模型整体架构,然后分享Bunny轻量模型的工作,介绍Bunny的结构和预训练和指令微调数据集扩充的方法,展示Bunny的中英文能力以及在不同评测集的性能表现,进一步介绍针对具身场景的SpatialBot理解深度的模型,分享其结构和数据及评测结果等内容。

李庆分享了多模态智能体的工作,首先分享了Agent基本的框架和功能等,然后重点分享VedioAgent的工作机制,特别是在记忆和工具调用方面的能力,以及分享了CLOVA和FIRE方面的工作,主要是研究多模态模型的反馈学习能力。

郑叔亮分享了超拟人大模型CharacterGLM的技术,首先分享超拟人化大模型涉及的六个维度,以及整体研究的发展脉络,而后对超拟人大模型的技术和方法,以及CharacterGLM的性能等进行的分享,而后通过案例分享介绍了超拟人大模型的应用方向。

李玉强分享了化学大模型的进展和潜力,首先整体介绍了大模型在化学领域的研究工作进展,并总结化学大模型的主要功能和介绍了书生化学大模型体系,以及书生化学大模型的性能和评测结果,随后分享了解析物质的晶体结构晶析大模型CrystalX,模型的准确率也非常高。

张元俣分享介绍了太令司法大模型的工作,首先介绍在司法工作中的需求和挑战,而后对司法业务的任务构建了知识图谱,并在此基础上构造数据集,也采用了一些数据增强的方法,经过SFT微调之后,太令模型具备了文本核验、信息抽取和量刑辅助的功能。

夏良昊分享了图大模型的工作,首先介绍了传统图表征的学习方法和已有一些图神经网络模型,提出了图模型的泛化能力的问题,在此基础上先介绍了GraphGPT的工作,将图数据与大模型结合起来,进一步介绍了OpenGraph的工作,提供图基础模型的Tokenizer方法和通过大模型进行领域知识蒸溜的方法,而后介绍了最新的图基础模型AnyGraph的工作,采用MoE的方法将多种任务整合,也发现在图基础模型上的Scaling Law。

吴永宇介绍了Llama中文社区的工作,首先整体介绍了Llama系列模型的情况,以及在此基础开展的中文能力加强的工作,并进一步分享基于Llama模型在客服、营销、培训等方面的应用落地案例,重点介绍了大模型辅助编程培训、企业微信客服机器人、文档分析等方面的具体案例。

侯建业分享了华佗医疗大模型工作进展,首先整体介绍了华佗大模型取得的成果,以及团队在医疗数据方面的积累,模型训练采用了两阶段的方法,临床医生的评估结果方面取得不错的成绩,以及多语言版本Apollo模型,而后重点介绍了华佗大模型具体的应用场景和案例。

始智AI wisemodel社区2024开发者大会成功举办,感谢所有持续支持wisemodel发展的合作伙伴和朋友们。虽然在国内从零开始做起开源社区不是一般的难,但我们还是努力地向上生成,欢迎更多伙伴和朋友们加入和支持,一起建设和打造一个源自中国的中立开放的AI开源社区生态体系。

追加内容

本文作者可以追加内容哦 !