蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 学画画去哪个国家留学最好

    作为一位美术生,出国留学是一个很好的机会来拓宽自己的眼界,增长自己的见识,并学习不同的艺术文化,提升自己的专业水平。但在选择留学国家时,各位美术生需要考虑很多因素,比如有哪些好的艺术学院,当地的艺术市场需求,是否有机会参加艺术活动等。本文将从这些方面来详细介绍几个适合美术生留学的国家。 一、 法国 法国一直被誉为艺术之都,拥有众多的艺术家、画廊和艺术学院。巴…

    2024年7月9日
  • 阿思丹商赛(阿思丹商赛含金量)

    6月5日至6日,牛津公学三支队伍在2021ASDAN模拟商赛中取得傲人成绩!此次竞赛,共有来自19所不同学校的14支队伍参与,经过两天的激烈角逐,最终,我校三支代表队伍都取得了属于自己的荣誉!具体获奖情况如下: 由Krystal、Rossi、Christy、Vivian、Max、Helena、Tracy 、Peter组成的参赛队伍荣获了最佳交易团队奖(Top…

    2023年11月5日
  • 2023美国大选最新消息出炉时间

    在阅读此文前,诚邀您点击一下“关注”,既方便您进行讨论与分享,又给您带来不一样的参与感,感谢您的支持。 美国又出新乐子了,眼看着2024大选到来,肯尼迪家族之光突然闪现,一人单挑民主共和两大党派,荣获新“懂王”美称。 因为他,拜登夜不能寐。而他肯尼迪家族后裔的身份,着实让人在意外之中,又带点“果然如此”的宿命感。 这位搅弄风云的总统竞选人到底是谁?他真的能改…

    2023年12月3日
  • 美国普渡大学_美国普渡大学排名

    普渡大学defer大量中国学生? 坚持原创,我们一起前行。欢迎大家来到Willey书房,我是Willey老师。这一期主要来跟大家分享的是美国近期的大学录取结果。一月十三号普渡大学defer的录取结果公布了,公布之后的结果是什么?与往年相比,中国学生获得了大量的defer。 也就是说之前很多中国学生是拿普渡大学作为保底校的,但是今年都被defer掉了。在这个时…

    2024年3月16日
  • 金融学哪个专业好

    我国大学本科有740个专业,每年志愿填报的时候,总有家长觉得专业名称很相似,但是又不清楚这些专业有什么区别。今天我们一起来聊一下,家长容易混淆的三个热门专业,他们是金融学大类下的金融学,金融工程和金融数学。很多人不清楚它们是学什么内容的,更不清楚他们有什么区别。虽然他们的名称很相似,也都属于金融学大类下的专业,但是它们学习内容、学习难度和就业方向还是有很大区…

    2024年5月4日
  • 辱华留学生(苏州辱华留学生)

    “谁要做中国未来的骄傲,我才不要给国家做螺丝钉。” 一时间,这句话在网络上激起了轩然大波,一个叫许可馨的中国留学生,毫不避讳的发表了如此反华的言论,立即成为众矢之的。 在新冠肺炎疫情肆虐,国人心系家国的时候,许可馨却选择在国外社交媒体公开发表一系列辱华言论,引发国内网友集体愤慨。 她不仅指责奋战在抗疫一线的中国医生,还公开表示自己是“反华分子”,说要“弄死”…

    2023年9月21日
  • 美国汉诺威学院_美国汉诺威学院世界排名

    如果不是一封写给政客的公开信引起公众震动。谁都不会知道汉诺威有一所这样的学校正面临重大问题!学生间的暴力、打架和欺凌已经成为家常便饭,经常需要警察上门维持秩序。家长和教师们崩溃至极! 在公开信中,学校管理层描述了该校根本无法确保和平学习的现状:据说有些学生每天随身携带武器上学。在厕所骚扰同学并拍摄照片视频,随后将发布在互联网上的事件层出不穷。 学生来自40个…

    2024年2月26日
  • 英国中学留学(英国中学留学一年费用)

    英国真滴是热门留学国家!高中留学选英国也炒多~ 本文将为您提供一份全面的英国高中留学攻略,帮助您了解英国高中留学的要点,从申请条件到留学费用,从申请时间线到所需材料,以及英国顶尖高中的概述。 准备好踏上留学之旅,让我们一起开始吧! 英国高中留学申请条件 英国中学一般只招收高三以下(17岁前)的国际学生,因此中国学生通常是初三毕业生、高一和高二在读生。 ①申请…

    2023年10月13日
  • 丹佛大学中国留学生多少_丹佛大学中国留学生多少人

    美国丹佛大学2017年留学大学生485人,占总大学生比例的8.43%,2018年留学大学生438人,占总大学生比例的7.6%。大学本科每年也会招收一部分中国人,具体可以咨询美藤国际教育老师。 美国丹佛大学学制 丹佛大学采取学季制(Quarter)授课,一年分春、夏、秋、冬四个学期开课。学生可通过RD、EA和滚动录取的方式申请。RD申请截止日期是1月15日,录…

    2024年2月26日
  • 转学理由一般填什么好

    申请转学到美国大学,大部分的学校会要求学生写一篇文书阐述转学的理由。 如果使用Common Application(通用申请系统)申请本科转学,文书题目就是在250-650字以内回答转学的理由和希望在申请转学的学校达到什么目标。 和本科新生申请不同,本科转学的学生都已经经历过一轮大学的申请和选大学过程,而且在就读大学后不管出于什么原因,发现和自己实际想要的大…

    2024年5月17日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信