lm-evaluation-harness阿鬼39天前发布关注私信01618这是一个是用于评估大型语言模型的框架,能够测试模型在多种任务中的表现。它提供了超过 60 个学术基准测试,支持多种模型框架、本地模型、云服务(如 OpenAI)、硬件加速,以及自定义任务等功能。点击访问© 版权声明 1本站名称:欧鬼工坊 2本站网址:https://blog.ohghost.com 3文章内容来源网络,仅供学习参考,如有侵权请联系站长删除。THE ENDGitHub项目# Python# AI# LLM喜欢就支持一下吧点赞18 分享QQ空间微博QQ好友海报分享复制链接收藏17
暂无评论内容