46人参与 • 2024-08-04 • 硬件工程
如今,没有人会对在云中运行深度学习模型感到惊讶。但在边缘或消费设备领域,情况可能要复杂得多。这有几个原因。首先,云api的使用要求设备始终在线。对于网络服务来说这不是问题,但对于需要在没有互联网接入的情况下运行的设备来说可能会成为一个问题。其次,云 api 需要花钱,客户可能不愿意再支付订阅费。最后但并非最不重要的一点是,几年后,该项目可能会完成,api 端点将被关闭,昂贵的硬件将变成一块砖头。这对于客户、生态系统和环境自然是不友好的。这就是为什么我坚信最终用户硬件应该能够完全离线运行,无需额外成本或使用在线 api(嗯,它可以是可选的,但不是强制性的)。
在本文中,我将展示如何在 raspberry pi 上运行 llama gpt 模型和自动语音识别 (asr)。这将使我们能够向 raspberry pi 提出问题并获得答案。正如所承诺的,所有这一切都将完全离线进行。
让我们开始吧!
本文中提供的代码旨在在 raspberry pi 上运行。但大多数方法(“显示”部分除外)也适用于 windows、osx 或 linux 笔记本电脑。因此,那些没有 raspberry pi 的读者可以轻松测试代码,没有任何问题。
对于这个项目,我将使用raspberry pi 4。它是一台运行linux的单板计算机;它体积小,仅需要 5v 直流电源,无需风扇和主动冷却:
2023 年更新的型号 raspberry pi 5 应该会更好ÿ
您想发表意见!!点此发布评论
版权声明:本文内容由互联网用户贡献,该文观点仅代表作者本人。本站仅提供信息存储服务,不拥有所有权,不承担相关法律责任。 如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 2386932994@qq.com 举报,一经查实将立刻删除。
发表评论