微软研究院近日发布新闻稿,推出了相比较主流语言模型更小的Orca 2 LLM,不过依然可以回答一些复杂问题。微软表示,Orca 2使用扩展的、高度定制的合成数据集进行训练。Orca 2支持分步处理、回忆然后生成、回忆-原因-生成、提取-生成和直接回答等各种推理技术,同时还能为不同的任务选择不同的解决方案策略。Orca 2模型相比Llama 2和WizardLM等大型语言模型,在痛苦理解、常识推理、多步推理、数学问题解决、阅读理解等方面更为优秀。

微软研究院发布Orca 2 LLM 性能媲美Llama 2等模型  第1张
(图片来源网络,侵删)