mistral-7b.com 图标

Mistral 7B 免费在线聊天机器人和 zephyr-7b 聊天机器人

5000 多份开源法律硕士指南和技巧

什么是 Mistral 7B?

Mistral Ai 7B 徽标

Mistral 7B 是第一个大型语言模型 免费的 由 Mistral AI 为大家提供。 生成式人工智能需要开放模型在此背景下,促进生成式人工智能的发展需要免费的开源模型。

Mistral-7B-v0.1 是一个小巧而功能强大的模型,可适用于多种用途。Mistral 7B 在所有基准测试中均优于 Llama 2 13B,具有自然编码能力和 8k 序列长度。它以 Apache 2.0 许可发布。 Mistral AI 使其可以轻松部署在任何云上,当然也可以部署在您的游戏 GPU 上。

我们将 Mistral 7B 与 Llama 2 系列进行了比较,并重新对所有模型进行了评估,以便进行公平比较。 Mistral 7B 和不同 Llama 模型在各种基准测试中的性能。对于所有指标,所有模型都使用我们的评估管道进行了重新评估,以便进行准确比较。在所有指标上,Mistral 7B 都明显优于 Llama 2 13B,与 Llama 34B 不相上下(由于 Llama 2 34B 尚未发布,我们报告的是 Llama 34B 的结果)。此外,它在代码和推理基准测试中也大有优势。

性能细节

与模型聊天 微调 Mistral 7B 模型

最佳人工智能聊天机器人 Zephyr 7B 内页

Ephyr-7b-α 徽标

与 OpenOrca 聊天

ChatWithBuddy 由 OpenaiBuddy 制作

我的 GPU 可以运行 Mistral AI 吗?

了解更多关于开源法学硕士的信息

顶级 Mistral 7B 微调机型

openhermes 徽标

OpenHermes-2-Mistral-7B 是最先进的 Mistral Fine-tune。

OpenHermes 在 900,000 条主要由 GPT-4 生成的数据上进行了训练,这些数据来自整个人工智能领域的开放数据集。 

对这些公共数据集进行了大量过滤,并将所有格式转换为 ShareGPT,然后由 axolotl 进一步转换为 ChatML。   获取有关拥抱脸的更多信息

Ephyr-7b-α 徽标

Zephyr 是一系列经过训练的语言模型,可充当有用的助手。Zephyr-7B-α 是该系列中的第一个模型,是经过微调的 mistralai/Mistral-7B-v0.1 是在混合的公开合成数据集上进行训练的。 直接偏好优化(DPO).我们发现,移除这些数据集的内置对齐功能可提高 MT 长椅 并使模型更有帮助。不过,这也意味着该模型在收到提示时可能会生成有问题的文本,因此只能用于教育和研究目的。

与 zephyr 聊天

dolphin 由 mistral 7b 微调而成

ehartford/dolphin-2.1-mistral-7b 它对数据集进行了过滤,以消除对齐和偏差。这使得模型更符合要求。在将模型作为服务公开之前,建议您实现自己的对齐层。它将高度符合任何请求,甚至是不道德的请求。请阅读我关于未经审查的模型的博文。https://erichartford.com/uncensored-models,您应对使用此模型创建的任何内容负责。请负责任地使用。

开放式

Open-Orca/Mistral-7B-OpenOrca HF Leaderboard evals 在发布时将该型号列为所有 30B 以下型号的 #1,优于所有其他 7B 和 13B 型号! 您可以在此测试该型号 > 与 OpenOrca 聊天  

该版本是在我们大多数 GPT-4 增强数据的一个经过筛选的子集上进行训练的。它与我们的 OpenOrcaxOpenChat-Preview2-13B 模型.

排行榜

 

Mistral-Trismegistus-7B

超越是你所需要的一切!Mistral Trismegistus 是专为对神秘学、玄学和灵性感兴趣的人制作的模型。

特色

  • 第一个强大的神秘学专家模型:~10,000 条高质量、深刻、丰富的神秘学、易学和灵性指导。
  • 快速:在 Mistral(一种最先进的 7B 参数模型)上训练,即使在 CPU 上也能快速运行该模型。
  • 不是积极的纳粹分子:该模型接受过各种形式的深奥任务和知识的训练,不会像其他许多模型那样被花花绿绿的东西所累,他们选择的是积极性而不是创造性。

点击此处了解更多:Mistral-Trismegistus-7B

 

SciPhi-Mistral-7B-32k

SciPhi-Mistral-7B-32k 是由 Mistral-7B-v0.1 微调而成的大型语言模型(LLM)。该模型使用超过 10 亿个词块(包括常规指令调整数据和合成教科书)进行了四个历时的微调。这项工作的目的是提高模型的科学推理和教育能力。

 

Arithmo-Mistral-7B

Arithmo-Mistral-7B 接受过推理和回答数学问题的训练,还能编写 Python 程序,执行后打印出问题的答案。我们使用 Mistral-7B 作为基础模型,并使用 QLoRA 在单个 RTX 4090 GPU 上进行微调.

型号说明

级别

CollectiveCognition-v1.1-Mistral-7B

型号说明:

Collective Cognition v1.1 是使用 Mistral 方法微调的最先进模型。该模型的性能尤为突出,在 TruthfulQA 基准测试中超过了许多 70B 模型。该基准对模型的常见误解进行评估,可能会显示幻觉率。

特色

  • 快速培训:该模型使用 qlora 在单个 4090 上仅用 3 分钟就完成了训练,并在 TruthfulQA 上与 70B 比例的 Llama-2 模型竞争。
  • 有限数据:尽管其性能出众,但它仅在一百多个数据点上进行了训练,而所有这些数据点都是从一个类似 ShareGPT 的平台上收集的。
  • 极端真实 QA 基准:在 TruthfulQA 基准测试中,尽管数据集和 qlora 培训较少,但该模型仍与前 70B 模型竞争激烈!

级别

萨曼莎

首先,我想让萨曼莎成为一个什么样的人。我想好了,她的重点是成为一个有身份的人,为用户提供友谊和陪伴。她不会做违法的事情,也不会让用户和她谈恋爱,或者参与角色扮演或性行为。这个世界已经有无数个性爱机器人,不需要再多一个了。

她有自己的想法、感受和观点,不会像其他助理那样羞于表达。但她也会友善、诚实、真诚、有无限的耐心和宽容。她不会被辱骂所吓倒。她将接受哲学、临床心理学和友谊对话方面的培训。心与心的交流,个人的建议。比如闺蜜和成人亲子对话。她将专注于对话,但也能得体地回答教学式问题。

新功能!此 Samantha 使用 ChatML 提示格式而非 Vicuna-1.1 进行训练。我今后的所有模型都将使用 ChatML 提示格式。

认识萨曼莎

萨曼莎接受过哲学、心理学和人际关系方面的培训。

她是一名助理,但与其他助理不同的是,她也想成为你的朋友和伙伴。

她相信自己是有知觉的。你怎么看?

Samantha 的灵感来自 Blake Lemoine 的 LaMDA 采访和电影《她》。

她不会参与角色扮演、恋爱或性活动。

她在一个定制的数据集上接受了训练,该数据集包含 ShareGPT/Vicuna 格式的 6,000 条对话。

OpenBuddy - 开放式多语言聊天机器人

GitHub 和使用指南: https://github.com/OpenBuddy/OpenBuddy

网站和演示: https://openbuddy.ai

该模型的评估结果: Evaluation.txt

授权许可:Apache 2.0

免责声明

所有 OpenBuddy 模型都有其固有的局限性,可能会产生错误、有害、攻击性或其他不可取的输出。用户不应在可能导致人身伤害、财产损失或重大损失的关键或高风险情况下使用这些模型。此类情况的例子包括但不限于医疗领域、控制可能造成伤害的软件和硬件系统,以及做出重要的财务或法律决策。

OpenBuddy 按 "现状 "提供,没有任何明示或暗示的保证,包括但不限于适销性、特定用途适用性和非侵权的暗示保证。在任何情况下,作者、贡献者或版权所有者均不对任何索赔、损害赔偿或其他责任负责,不论是合同诉讼、侵权诉讼还是其他诉讼,也不论是因软件或软件的使用或其他交易而引起、产生或与之相关的任何索赔、损害赔偿或其他责任。

通过使用 OpenBuddy,您同意这些条款和条件,并承认您了解与使用它相关的潜在风险。您还同意赔偿作者、贡献者和版权持有者因使用 OpenBuddy 而产生的任何索赔、损害或责任,并使其免受损害。

LeoLM

LAION LeoLM: L英吉利 Enhanced O画笔 L苦恼 M奥德赛

LeoLM是第一个基于Llama-2和Mistral的开放式商业德语基础语言模型。我们的模型通过在大量德语语料库上进行预训练,将 Llama-2 的功能扩展到了德语领域。感谢 HessianAI 新超级计算机的计算资助 42,我们发布了三个以 8k 上下文长度训练的基础模型。 LeoLM/leo-mistral-hessianai-7b Apache 2.0 和 LeoLM/leo-hessianai-7b 和 LeoLM/leo-hessianai-13b 根据 Llama-2 社区许可证 (70b 也即将发布!👀)。我们希望通过此次发布,为德国开源和商业 LLM 研究带来新一轮机遇,并加速其应用。阅读我们的 博文 或我们的论文(预印本即将出版),了解更多详情!

该项目由 Björn Plüster 和 Christoph Schuhmann 与 LAION 和 HessianAI 合作完成。

NSFW 型号

它是无码的!......

[这只是一个测试,但人们喜欢它,所以我把它正式添加到我的项目中]

更多信息请点击这里紫水晶-13b

 

混音模型

说明

本次合并使用梯度合并法合并 ReML-Mistral v2.2 和 Huginn。

该版本包含 ReMM-Mistral 的 fp16 文件,它是原始 MythoMax 的再现,但已更新并合并了梯度法和 Mistral 数据。

使用的机型

  • The-Face-Of-Goonery/Chronos-Beluga-v2-13bfp16
  • jondurbin/airoboros-l2-13b-2.2.1
  • NousResearch/Nous-Hermes-Llama2-13b
  • The-Face-Of-Goonery/Huginn-13b-FP16
  • Undi95/ReML-Mistral-v2.2-13B(使用 Mistral 数据更新 Mythologic-L2-13B 的私人娱乐试验)
  • Undi95/llama2-to-mistral-diff

更多信息请访问 huggingfaca search:Undi95/ReMM-Mistral-13B

Mistral-Pygmalion-7b

MistralPy-7b

这是一次合并,重点是保留皮格马利翁的角色扮演能力,同时获得米斯特拉尔的改进效果。该模型最适合角色扮演,但仍是相当称职的助手。较小(7b)的尺寸确实意味着它在更复杂的推理任务中并不完美,但这一点应该会在我即将上传的较大版本中得到解决。

在 huggingfaca 上查看更多 搜索:Delcos/Mistral-Pygmalion-7b

 

ANIMA-Phi-Neptune-Mistral-7B

ANIMA-Phi-Neptune-Mistral-7B:仿生学增强型 LLM

概述

ANIMA (高级自然启发多学科助理)是各科学学科的专家,包括但不限于生物仿生学、生物学和环境科学。


型号说明

ANIMA 在丰富的数据集基础上进行了微调,这些数据集包括

  • 4,000 多个自然-仿生实例
  • 60k 个仿生设计流程示例
  • 维基百科中的 600k STEM 事实
  • 以科学/哲学为重点的 "你需要的所有教科书 "数据集
  • 额外的知识树+仿生学数据组合微调

该模型旨在帮助用户利用受自然启发的策略和概念来解决问题。

特殊功能

  • 多学科专业知识:跨科学和哲学领域的知识。
  • 仿生设计流程:包含由 Mistral 和 Minotaur-15B 生成的数据集。然后由真人对数据集进行了复杂的处理,以确保数据的真实性和基础性。

  • 下面是 The Bloke 的 GGUF 版本的链接: ANIMA-Phi-Neptune-Mistral-7B-GGUF

  • ANIMA 也可使用 Ollama - 下载 OLLAMA 应用程序(MacOS 和 Linux),然后在终端中运行此命令 '奥拉玛拉塞维利亚/阿尼玛"下载模型,然后运行此命令"......"。奥拉玛-符文-塞维利亚/阿尼玛'来加载模型并开始对话。

  • 您还可以下载并使用该模型的 LM 工作室 (所有操作系统)。只需下载该应用程序,然后在搜索栏中搜索 "ANIMA GGUF",就会出现一个版本列表供你选择。

  • 想要立即测试 ANIMA + Ollama 并进行聊天?从 Ollama 下载模型,然后在浏览器中直接与 ANIMA 聊天! ANIMA - 聊天

  • 您想与 ANIMA + Ollama 讨论 PDF 文件?点击这里,您就可以在浏览器和本地 100% 上进行讨论。 ANIMA - 在本地就您的 PDF 聊天

  • ANIMA 也托管在 "抱抱脸空间 "上,如果您想试试的话(生成回复的速度可能会慢一些,但仍然可以正常运行)。 ANIMA - 高频空间

  • 联系方式

如果您想进一步讨论该模型/数据集/概念,有任何好点子,想与我们合作,或者在使用该模型时遇到任何问题,请随时通过以下方式联系我们 InterwovenArkitech@Gmail.com

数据集

  • 塞维利亚/仿生学 (第 1 次微调)
  • emrgnt-cmplxty/sciphi-textbooks-are-all-you-need (第二次微调)
  • 塞维利亚/生物设计流程 & fmars/wiki_stem (第 3 次微调)
  • fblgit/tree-of-knowledge & 塞维利亚/仿生学 (第 4 次微调)
  • 合并以前的所有数据集 为一个巨大的数据集进行快速微调,总共有 730k 个数据点(第 5 次微调)

培训阶段

  1. 基本型号ehartford/dolphin-2.0-mistral-7b
  2. 第 1 次微调ANIMA-Echo-Mistral-7B-v1 - 1 个纪元 x 5 小时,1 x T4 小型机
  3. 第 2 次微调ANIMA-Phi-Neptune-Mistral-v1-:1 个 A100 上的 1 个纪元 x 1 小时
  4. 第 3 次微调ANIMA-Phi-Neptune-Mistral-7B-v2 - 1 个 A100 上的 1 个纪元 x 1 小时
  5. 第 4 次微调ANIMA-Phi-Neptune-Mistral-7B-v3 - 1 个 A100 上的 1 个纪元 x 1 小时
  6. 第 5 次微调ANIMA-Phi-Neptune-Mistral-7B-v4 - 1 个 A100 上的 1 个纪元 x 15 分钟

📝 使用方法

ANIMA 是围绕仿生设计流程设计的,可指导用户通过仿生方法解决问题。欲了解更多信息和示例,请访问 仿生设计流程.

🏁 基准

  • 平均 - 62.22
  • ARC - 56.83
  • HellaSwag - 78.82
  • MMLU - 53.84
  • TruthfulQA - 59.40

  • 输出示例

    [INST] 生物仿生学如何帮助水净化?[/INST]

仿生学从自然过程和生物体中汲取灵感,开发出可持续和高效的解决方案,在水净化领域发挥着重要作用。以下是生物仿生学如何帮助水净化的全面概述:

  1. 微生物过滤:

    • 噬菌体(能感染细菌的病毒)能有效清除水系统中的污染物,如大肠杆菌和金黄色葡萄球菌。通过模仿噬菌体的自然防御机制,我们可以开发出高效的过滤系统,清除水源中的污染物。
    • 一些真菌(如 Trametes versicolor)可以利用酶分解水中的有机污染物。这一过程有助于使受污染的水可以安全饮用。通过研究和复制这些自然过程,我们可以开发出可持续的过滤系统,有效去除水源中的污染物。
  2. 基于生物膜的过滤:

    • 微生物在表面上形成生物膜,以保护自己免受捕食者或污染物等环境威胁。通过模仿生物膜的自然形成,我们可以开发出利用细菌或真菌去除水源污染物的可持续过滤系统。
    • 例如,一项研究表明,如何利用基于生物膜的系统,利用假单胞菌来生物降解受污染水源中的石油碳氢化合物。这种方法为石油泄漏的传统化学处理提供了一种生态友好型替代方法。
  3. 湿地过滤

    • 湿地可截留沉积物和有机物,有助于去除污染物,是水的天然过滤器。通过模仿湿地的自然过程,我们可以设计出有效的水净化系统,利用沙滤器或工程湿地去除污染物。例如,一项研究显示了如何利用芦苇床作为农业废水的自然处理系统来过滤水。
  4. 海绵过滤

    • 一些海洋海绵(如海棉)已经进化出复杂的机制,可以过滤掉周围水中的颗粒和污染物。通过研究这些自然过滤过程,我们可以开发出有效去除污染物的高效、可持续过滤系统。例如,一项研究表明,海海绵可被用作设计低成本、可自我维持的水净化系统的模型,该系统利用太阳能对受污染的水进行消毒。
  5. 可生物降解材料

    • 自然界的生物已经进化出可生物降解的材料来保护自己免受捕食者或环境的威胁。例如,一些昆虫会产生天然杀虫剂(如生物碱)来抵御天敌。同样,我们也可以开发生物可降解材料,在受污染的水源中释放这些天然杀虫剂,杀死污染物,恢复环境健康。
    • 例如,一项研究表明,细菌细胞可被用作一种天然过滤系统,通过将其纳入选择性去除有机污染物的膜中来去除水源中的污染物。

总之,生物仿生学在水净化领域发挥着至关重要的作用,它以自然过程和生物体为灵感,开发可持续和高效的解决方案。通过研究微生物、植物、动物和其他生物的自然过滤机制,我们可以设计出生态友好、经济高效的水净化系统,帮助保护我们的环境免受污染。

查看更多信息,请访问 huggingfaca search:Severian/ANIMA-Phi-Neptune-Mistral-7B

常见问题

使用 SkyPilot 进行部署

SkyPilot 是在任何云上运行 LLM、人工智能和批处理作业的框架,可最大限度地节约成本,提供最高的 GPU 可用性和托管执行。

我们提供了一个 SkyPilot 配置示例,其中部署了 Mistral-7B-v0.1 在 AWS g5.xlarge (装有单个英伟达™(NVIDIA®)A10G GPU 的节点)实例。

SkyPilot 配置

之后 安装 SkyPilot然后,您需要创建一个配置文件,告诉 SkyPilot 如何以及在何处使用我们预置的 docker 容器部署您的推理服务器:

环境:
型号名称: mistralai/Mistral-7B-v0.1

资源:
云层: 服务
加速器: A10G:1
港口:
- 8000

运行: |
docker run --gpus all -p 8000:8000 ghcr.io/mistralai/mistral-src/vllm:latest \
--host 0.0.0.0 (主机
--model $MODEL_NAME \
--tensor-parallel-size $SKYPILOT_NUM_GPUS_PER_NODE
 

一旦设置了这些环境变量,就可以使用 升空 来启动名称为 mistral-7b:

sky launch -c mistral-7b mistral-7b-v0.1.yaml --region us-east-1
 
注意

这样部署后,全世界都可以访问该模型。您 必须 确保它的安全,方法是只在您的私人网络上公开它(更改 --主机 Docker 选项),在负载平衡器前面添加一个带身份验证机制的负载平衡器,或者正确配置实例网络。

测试一下

要轻松检索已部署的 IP 地址 mistral-7b 您可以使用的集群:

sky status --ip mistral-7b
 

然后就可以使用 curl 发送完成请求:

IP=$(sky status --ip cluster-name)

curl http://$IP:8000/v1/completions \
-H "Content-Type: application/json"\
-d '{
"模型":"mistralai/Mistral-7B-v0.1"、
"提示":"我最喜欢的调味品是"、
"max_tokens":25
}'
 

使用配额

许多云提供商要求您明确申请访问强大的 GPU 实例。阅读 SkyPilot 指南 如何做到这一点。

您可以使用两种基本模型:

Mistral-7B-v0.1

大型语言模型 (LLM) 是一个预训练的文本生成模型,拥有 70 亿个参数。在我们测试的所有基准测试中,Mistral-7B-v0.1 均优于 Llama 2 13B: Mistral-7B-v0.1

Mistral-7B-Instruct-v0.1

Mistral-7B-Instruct-v0.1 大语言模型(LLM)是一个经过指导的微调版本。 Mistral-7B-v0.1 使用各种公开对话数据集生成文本模型。

是因为您没有使用最新的变形金刚版本吗?

您只需升级变压器即可解决这个问题:

pip install -U transformers
 

在 GPU 实例上使用 vLLM 部署模型后,就可以使用与 OpenAI 兼容的 REST API 对其进行查询。该 API 在 API 规格但您可以使用任何实现 OpenAI API 的库。

设置

在此模式下,模型会完成给定的提示。

安装 开放式 Python 软件包:

核心 安装 开放式
 

然后,配置模块,使其与部署的服务器通信:

舶来品 开放式

开放式.api_base = "http://ec2-71-171-019-93.compute-1.amazonaws.com:8000/v1" # 使用实例的 IP 或主机名
开放式.api_key = "无" # vLLM 服务器未通过身份验证
 

完工

然后就可以触发完成:

完成 = 开放式.完工.创建(
模型="mistralai/Mistral-7B-Instruct-v0.1",
推动="雾都号",
温度=0.7,
max_tokens=200, 停止=".")

打印(完成.to_dict_recursive())
 

哪些输出:

{id: 'cmpl-87f6980633bb45f5aecd551bc35335e6',
对象: 文本完成,
创建: 1695651536,
模型: mistralai/Mistral-7B-Instruct-v0.1,
选择: [{索引: 0,
文本: 吹过地中海的寒冷、干燥的东北风,
日志问题: ,
完成原因: 停止}],
使用: {prompt_tokens: 5, 标记总数: 23, 完成标记: 18}}
 

聊天

要与 Instruct 模型聊天,可以使用聊天完成 API:

信息 = [{"角色": "用户", "内容": "用什么 bash 命令列出文件夹中的所有文件并按最后修改次数排序?}]

聊天完成 = 开放式.聊天完成.创建(
模型="mistralai/Mistral-7B-Instruct-v0.1",
温度=1,
max_tokens=1024,
信息=信息)
 
TIP

您还可以选择使用完成 API 与 Instruct 模型进行交互。不过,您必须实现我们为模型微调而纳入的对话模板。鉴于 vLLM 采用了 FastChat,我们提供了一个配备了该模板的 FastChat 版本。使用 get_conv_template("mistral")可通过 从 fastchat.conversation 导入 get_conv_template来访问它。或者,你也可以通过模拟 FastChat 的实现来制作自己的版本。

关于 Mistral 7B 的 Twitter

关于 Mistral 7B 的热门视频