目前常见的 AI 模型包括:
大模型,如 GPT、PaLM 等。 多模态 AI 中的视觉-语言模型,如 CLIP、Stable Diffusion 等,以及多模态融合模型。 自监督学习模型,如自监督预训练、对比学习、掩码语言模型等。 小样本学习模型,如元学习、一次学习、提示学习等。 可解释 AI 模型,包括模型可解释性、因果推理、符号推理等方面的模型。 机器人学相关模型,如强化学习、运动规划、人机交互等模型。 量子 AI 模型,如量子机器学习、量子神经网络等。 AI 芯片和硬件加速相关模型。智谱·AI 开源的模型有: |模型|介绍|代码链接|模型下载| |-|-|-|-| |WebGLM-10B|利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。它旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。|WebGLM|Huggingface| |WebGLM-2B|利用百亿参数通用语言模型(GLM)提供高效、经济的网络增强型问题解答系统。它旨在通过将网络搜索和检索功能集成到预训练的语言模型中,改进现实世界的应用部署。|WebGLM|Huggingface| |MathGLM-2B|在训练数据充足的情况下,20 亿参数的 MathGLM 模型能够准确地执行多位算术运算,准确率几乎可以达到 100%,其结果显著超越最强大语言模型 GPT-4 在相同测试数据上 18.84%的准确率。|MathGLM|THU-Cloud| |MathGLM-Large|采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLM-large 和 GLM-10B。此外,还使用 ChatGLM-6B 和 ChatGLM2-6B 作为基座模型来训练 MathGLM。这些骨干模型赋予 MathGLM 基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。|MathGLM|THU-Cloud| |MathGLM-10B|采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLM-large 和 GLM-10B。此外,还使用 ChatGLM-6B 和 ChatGLM2-6B 作为基座模型来训练 MathGLM。这些骨干模型赋予 MathGLM 基本的语言理解能力,使其能够有效理解数学应用题中包含的语言信息。|MathGLM|THU-Cloud魔搭社区| |MathGLM-ChatGLM-6B|采用 GLM 的不同变体作为骨干来训练 MathGLM,包括具有 335M 参数的 GLM-large 和 GLM-10B。|MathGLM| |