4 月 24 日
苹果在 Hugging Face 平台上发布了一个名为 OpenELM 的开源语言模型,具有高效的训练和推理框架。该模型的源码、预训练权重和训练配方均可在苹果 Github 库中获取。OpenELM 使用分层缩放策略,提高了 Transformer 模型的准确率,并在公开数据集上提供了完整的训练和评估框架。此外,苹果还发布了将模型转换为 MLX 库的代码,以便在苹果设备上进行推理和微调。这一发布旨在加强开放研究社区,为未来的开放研究工作提供支持。
苹果发布 OpenELM,基于开源训练和推理框架的高效语言模型
搜狐科技/IT 之家
展开全部报道
话题追踪
2024-04-24
苹果发布 OpenELM,基于开源训练和推理框架的高效语言模型2024-04-22
苹果研发设备端大型语言模型,提升 AI 响应与隐私保护2024-04-02
苹果开发出新款 AI:可「看懂」屏幕内容并语音回复2024-03-30
零基础也能快速上手,苹果推出 Swift 编程语言入门课程2024-03-14
苹果 Vision Pro 头显虚拟键盘将添加 12 种语言,包含简体中文2024-02-05
苹果开源 Pkl——用于生成配置的编程语言2019-12-20
苹果开源 HomeKit,未来设备可兼容亚马逊、Google 语音助手