咨询与建议

看过本文的还看了

相关文献

该作者的其他文献

文献详情 >一种适用于机器学习的高性能混合分布式架构实现方法 收藏
一种适用于机器学习的高性能混合分布式架构实现方法

一种适用于机器学习的高性能混合分布式架构实现方法

专利申请号:CN202311558475.8

公 开 号:CN117669768A

发 明 人:赵衎衎 孙路明 冷友方 张晖 

代 理 人:陈婷婷

代理机构:济南信达专利事务所有限公司

专利类型:发明专利

申 请 日:20240308

公 开 日:20231121

专利主分类号:G06N20/00

关 键 词:机器学习 子模型 并行 机器学习技术 机器学习模型 机器学习系统 计算资源分配 分布式架构 模型准确性 分割算法 剪枝策略 提升框架 通用模型 训练过程 训练效率 最终模型 中性能 剪枝 构建 空闲 架构 通用 表现 

摘      要:本发明公开了一种适用于机器学习的高性能混合分布式架构实现方法,属于机器学习技术领域,该方法的实现包括以下模块:混合分布式训练架构,用于构建数据并行和模型并行混合的机器学习通用分布式训练框架;通用模型分割算法,用于将一个复杂的机器学习模型从特征层面划分为多个相互独立的机器学习子模型;模型剪枝策略,用于将训练过程中性能表现欠佳的子模型剪枝,并将空闲计算资源分配给其他活跃子模型组以进一步提升框架效率和最终模型性能。本发明使得分布式机器学习系统训练效率和模型准确性可以有效提高。

读者评论 与其他读者分享你的观点

用户名:未登录
我的评分