清华电子系联合火山语音开源全新的听觉大语言模型——SALMONN

8月22日 消息:SALMONN 是一个由清华大学电子工程系和字节跳动合作开发的大型语言模型(LLM),能够处理语音、音频事件和音乐输入。

相比于只能处理语音或音频事件的模型,SALMONN 能够感知和理解各种音频输入,并因此具备了多语言语音识别和翻译以及音频 - 语音推理等新兴能力。可以说,SALMONN 为 LLM 提供了 "听觉",使其具备了认知听觉能力,这是通向听觉启发的人工通用智能的一步。

Github仓库:https://github.com/bytedance/SALMONN/

Demo链接:https://bytedance.github.io/SALMONN/

该模型通过增加通用音频编码器和融合器来实现对音频模态的直接感知,使得模型可以直接从物理世界获取知识。

SALMONN 能够胜任英语语音识别、语音翻译、情感识别、音频字幕生成等任务,并展现了多种在模型训练中没有学习过的多语言和跨模态能力。研究团队将在近期开源 SALMONN v1.0模型及相关代码,并持续更新模型,为建设开源的通用人工智能做出贡献。

核心功能:

1. 处理语音、音频事件和音乐输入。

2. 实现多语言语音识别和翻译。

3. 进行音频 - 语音推理。

4. 支持根据文本和语音命令进行操作。

本文来源于站长之家,如有侵权请联系删除

发布于 2023-08-22 21:34:03
收藏
分享
海报
0 条评论
11
上一篇:真我GT5首发极客性能面板:骁龙8 Gen2 3.2GHz终于跑满了 下一篇:今年全球最大规模 IPO 或将诞生,芯片巨头 Arm 正式提交上市申请!
目录

    推荐阅读

    0 条评论

    本站已关闭游客评论,请登录或者注册后再评论吧~

    忘记密码?

    图形验证码