-
具有AI 功能的跨平台浏览器:Noi
前 AI 模型选择挺多的,如果你想把它们整合在一起使用可以用这个免费开源集成了多种 AI 功能的浏览器「Noi」包括有 ChatGPT、Bard、Claude、Copilot 等。你可以进行统一化管理,开发者并针对这些 AI 网站开发了一些内置插件,来解决现实痛点。 Noi介绍 这款「Noi」提供跨平台支持,包括有 macOS,Windows、Linux 客户端。界面采用侧栏的 URL 管理类似于…
- 0
- 0
- 33
-
LLaSM
开源,可商用的中英文双语语音-语言助手 LLaSM 以及中英文语音 SFT 数据集 LLaSM-Audio-Instructions,第一个支持中英文语音-文本多模态对话的开源可商用对话模型。 官网 https://github.com/LinkSoul-AI/LLaSM
- 0
- 0
- 19
-
Visual-Chinese-LLaMA-Alpaca
Visual-Chinese-LLaMA-Alpaca(VisualCLA)是基于中文LLaMA&Alpaca大模型项目开发的多模态中文大模型。VisualCLA在中文LLaMA/Alpaca模型上增加了图像编码等模块,使LLaMA模型可以接收视觉信息。在此基础上,使用了中文图文对数据进行了多模态预训练,对齐图像与文本表示,赋予其基本的多模态理解能力;并使用多模态指令数据集精调,增强其对多…
- 0
- 1
- 34
-
VisCPM
VisCPM 是一个开源的多模态大模型系列,支持中英双语的多模态对话能力( VisCPM-Chat 模型)和文到图生成能力( VisCPM-Paint 模型),在中文多模态开源模型中达到最佳水平。VisCPM基于百亿参数量语言大模型 CPM-Bee(10B)训练,融合视觉编码器(Q-Former)和视觉解码器(Diffusion-UNet…
- 0
- 1
- 11
-
VisualGLM-6B
VisualGLM-6B is an open-source, multi-modal dialog language model that supports images, Chinese, and English. The language model is based on ChatGLM-6B with 6.2 billion parameters; the …
- 0
- 1
- 19
-
Stable Diffusion
Stable Diffusion是2022年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像,它也可以应用于其他任务,如内补绘制、外补绘制,以及在提示词(英语)指导下产生图生图的翻译。 想要快速体验 AI制图,您可以加入Hayo Stable Diffusion房间 DreamStudio 现已推出了 Stable Diffusion XL Preview 版本,你可以在官…
- 0
- 0
- 45
-
huozi
活字是由哈工大自然语言处理研究所多位老师和学生参与开发的一个开源可商用的大规模预训练语言模型。 该模型基于 Bloom 结构的70 亿参数模型,支持中英双语,上下文窗口长度为 2048。 在标准的中文和英文基准以及主观评测上均取得同尺寸中优异的结果。 局限性: 由于模型参数量以及中文预训练数据较少和自回归生成范式,活字仍然可能生成包含事实性错误的误导性回复或包含偏见/歧视的有害内容,请谨慎鉴别和使…
- 0
- 1
- 39
-
AtomGPT
为了能够在中文上训练出一个能够和ChatGPT能力接近的中文大模型,我们开放了AtomGPT项目。 AtomGPT基于LLaMA的模型架构,从0开始训练,希望能在训练的过程中,将模型能力得到提升的进化过程展示出来,感受到模型学习的过程。 官网 https://github.com/AtomEcho/AtomGPT
- 0
- 0
- 49
-
PolyLM
PolyLM是一个多语言大语言模型,旨在解决当前LLM研究中的以下空白和限制,为推进该领域提供全面且创新的解决方案。 涵盖18种最常用语言。 PolyLM 精通全球主要非英语语言,如西班牙语、俄语、阿拉伯语、日语、韩语、泰语、印度尼西亚语和中文等。它是对现有开源模型的完美补充,包括:(1 ) LLaMA,其中英语在整个数据集中占主导地位。 (2) BLOOM,无法解决大量人口使用的语言,例如日语、…
- 0
- 1
- 12
-
YuLan-Chat
YuLan-Chat系列模型是中国人民大学高瓴人工智能学院师生共同开发的支持聊天的大语言模型(名字”玉兰”取自中国人民大学校花)。最新版本基于LLaMA-2进行了中英文双语的继续预训练和指令微调。该版模型具有如下技术特点: 由于在高质量中英双语数据上进行了继续预训练,模型的语言能力得到提高; 为了更好的支持中文和更长的输入输出,对原版LLaMA-2的词表及长度进行了扩充,目…
- 0
- 0
- 26
-
BayLing
BayLing(百临,bǎi líng)是一种具有高级语言对齐功能的指令跟踪大型语言模型,在英汉生成、指令跟踪和多轮交互方面表现出卓越的能力。 BayLing可以轻松部署在拥有16GB内存的消费级GPU上,协助用户完成翻译、写作、创作、建议等任务...... 如果BayLing对你有帮助,欢迎star回购🌟 👇了解有关Bayling的更多信息: 💬演示:欢迎申请Bayling在线演示…
- 0
- 2
- 42
-
KnowLM
KnowLM简介 这是KnowLM的概述,主要包含三个技术特征: 知识提示:基于知识图等结构化数据生成知识提示,利用知识增强约束来解决知识提取和推理 知识编辑:利用知识编辑技术,对齐大型模型中过时的、不正确的、有偏见的知识,解决知识谬误问题(英文教程)。 知识交互:它能够实现动态的知识交互和反馈,实现工具化学习和多智能体协作,解决LLM中的具身认知问题(英文教程)。 这三种技术对应的工具是Easy…
- 0
- 0
- 49
-
Anima
Anima简介 Anima模型基于QLoRA开源的33B guanaco训练了10000 steps。训练使用一个H100 GPU。 本工作主要为了验证QLoRA训练方法的有效性,因此选择了基于QLoRA的Guanaco 33B finetune训练,这个训练更多的是增强模型的中文能力。Assume模型的基础logical reasoning和Knowledge能力已经足够。 官网 https:/…
- 0
- 1
- 17
-
Baichuan-13B
Baichuan-13B 是由百川智能继 Baichuan-7B 之后开发的包含 130 亿参数的开源可商用的大规模语言模型,在权威的中文和英文 benchmark 上均取得同尺寸最好的效果。本次发布包含有预训练 ( Baichuan-13B-Base) 和对齐 ( Baichuan-13B-Chat) 两个版本。Baichuan-13B 有如下几个特点: …
- 0
- 0
- 20
-
Baichuan-7B
Baichuan-7B简介 Baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约 1.2 万亿 tokens 上训练的 70 亿参数模型,支持中英双语,上下文窗口长度为 4096。在标准的中文和英文 benchmark(C-Eval/MMLU)上均取得同尺寸最好的效果。 官网 https://github.com/baichua…
- 0
- 1
- 11
-
Aquila
悟道·天鹰(Aquila) 语言大模型是首个具备中英双语知识、支持商用许可协议、国内数据合规需求的开源语言大模型。 🌟 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于 《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。 - ✍️ 具备中英文知识。Aquila系列模型…
- 0
- 0
- 20
-
书生·浦语
lnternLM 是上海人工智能实验室与商汤科技(同等贡献)联合香港中文大学、复旦大学、上海交通大学合作开发的多语言大语言模型。 我们隆重介绍 InternLM ,具有 104B 个参数的多语言基础语言模型。 InternLM 在具有 1.6T 代币的大型语料库上进行了多阶段渐进过程的预训练,然后进行微调以符合人类偏好。我们还开发了名为 Uniscale-LLM 的训练系统,用于高效的大语言模型训…
- 0
- 0
- 9
-
TigerBot
TigerBot 是一个多语言多任务的大规模语言模型(LLM)。根据 OpenAI InstructGPT 论文在公开 NLP 数据集上的自动评测,TigerBot-7B 达到 OpenAI 同样大小模型的综合表现的 96%,并且这只是我们的 MVP,在此我们将如下探索成果开源: 模型:TigerBot-7B, TigerBot-7B-base,TigerBot-180B (research ve…
- 0
- 0
- 25
-
CPM-Bee
CPM-Bee是一个完全开源、允许商用的百亿参数中英文基座模型,也是CPM-Live训练的第二个里程碑。它采用Transformer自回归架构(auto-regressive),在超万亿(trillion)高质量语料上进行预训练,拥有强大的基础能力。开发者和研究者可以在CPM-Bee基座模型的基础上在各类场景进行适配来以创建特定领域的应用模型。 👐 开源可商用:OpenBMB始终秉承“…
- 0
- 2
- 18
-
ChatRWKV
ChatRWKV 类似于 ChatGPT,但由 RWKV(100% RNN)语言模型提供支持,并且是开源的。 ChatRWKV 类似于 ChatGPT,但由我的 RWKV(100% RNN)语言模型提供支持,这是唯一的 RNN (截至目前)它可以在质量和缩放方面与 Transformer 相匹配,同时速度更快并节省 VRAM。由 Stability EleutherAI 赞助的培训:) Raven…
- 0
- 1
- 13
-
ChatYuan
ChatYuan-large-v2是一个支持中英双语的功能型对话语言大模型。ChatYuan-large-v2使用了和 v1版本相同的技术方案,在微调数据、人类反馈强化学习、思维链等方面进行了优化。 ChatYuan-large-v2是ChatYuan系列中以轻量化实现高质量效果的模型之一,用户可以在消费级显卡、 PC甚至手机上进行推理(INT4 最低只需 400M )。 在线Demo(Huggi…
- 0
- 1
- 17
-
Firefly(流萤)
Firefly(流萤) 是一个开源的中文大语言模型项目,正如我们的项目名称一样,希望本项目能够像流萤一般发出淡淡微光,为中文大语言模型社区尽绵薄之力,促进中文大语言模型社区的发展。 流萤(萤火虫的别称)是中华传统文化的一个符号,虽说腐草为萤,带有悲悯意味,但萤火虽小,也能凭借其淡淡荧光,照亮夜空。本项目的名称取自杜牧的《秋夕》: 银烛秋光冷画屏,轻罗小扇扑流萤。 《咏萤火》 唐…
- 0
- 1
- 34
-
Linly
本项目向社区提供 中文对话模型 Linly-ChatFlow 、中文基础模型 Chinese-LLaMA (1-2)、Chinese-Falcon 及其训练数据。 模型基于 TencentPretrain 预训练框架全参数训练(Full-tuning)。 中文基础模型以 LLaMA 和 Falcon 为底座,使用中文和中英平行语料进行增量预训练,将其在英文上的语言能力…
- 0
- 2
- 39
-
MOSS
MOSS是一个支持中英双语和多种插件的开源对话语言模型,moss-moon系列模型具有160亿参数,在FP16精度下可在单张A100/A800或两张3090显卡运行,在INT4/8精度下可在单张3090显卡运行。 MOSS基座语言模型在约七千亿中英文以及代码单词上预训练得到,后续经过对话指令微调、插件增强学习和人类偏好训练具备多轮对话能力及使用多种插件的能力。 局限性:由于模型参数量较小和自回归生…
- 0
- 1
- 18