Chat-with-mlx:本地LLM运行程序

Chat-with-mlx:本地LLM运行程序

受NVIDIA’s Chat with RTX启发做的项目chat-with-mlx。

支持自动下载本地模型,并且可以同本地文件进行交互,支持多种语言,包括英语、西班牙语、中文和越南语。

该项目的一个关键特点是易于集成,用户可以轻松集成任何HuggingFace和MLX兼容的开源模型。
65v0hd6m.webp

原创文章,作者:校长,如若转载,请注明出处:https://www.yundongfang.com/Yun286353.html

(0)
打赏 微信扫一扫不于多少! 微信扫一扫不于多少! 支付宝扫一扫礼轻情意重 支付宝扫一扫礼轻情意重
上一篇 2024年3月4日 下午8:48
下一篇 2024年3月4日 下午8:49

相关推荐