蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 麻省理工学院留学生免学费吗

    在网上,美国留学的费用动辄几十万、上百万,让很多有意的留学生望而却步。 在美国留学的费用中,学费和生活费是主要开销。只要你在美国生活,生活费是不可避免的。如果能免除学费,那么你就可以省下大约一半的留学费用。 今天,良师前程就来给有意美国留学,但预算不高的同学推荐八所免学费的美国大学。一起看看吧! 纽约大学 在去年年末,纽约大学宣布学费减免项目将从2024-2…

    2024年9月9日
  • 日本工作签证要求

    日本工作签证人文签证办理的条件有哪些?大家好这里是杨老师聊出国。要去日本工作,必须要办理签证,日本人文技术国际业务签证就是一个非常好的签证种类。那么办理此类签证需要满足哪些要求呢? 1:年龄要求 想去日本工作,申请人首先需要满足年龄要求。一般来说,年龄在18-35岁之间的人,才有资格申请工作签证和人文签证。不过,有些文化交流项目的年龄要求可能会有所不同,需要…

    2024年4月18日
  • 康科迪亚大学_康科迪亚大学qs排名

    声明 中文内容由人工智能自动翻译,表述不当之处请见谅,并参照英语或法语原本(如适用) 本展播系列涉及院校排名不分先后 If you plan to apply for a study permit in Canada, you will need a letter of acceptance to a program offered by a designa…

    2024年3月2日
  • 奈梅亨大学_奈梅亨大学qs排名

    欧洲杯决赛即将在英格兰队与意大利队之间展开,本场比赛的主裁判人选已经确定,来自荷兰的48岁裁判柯伊珀斯将执法这场终极之战。赛前,关于这位裁判的趣闻轶事被媒体扒了出来。 柯伊珀斯在场上态度强硬,脾气火爆,曾和内马尔、维拉蒂等球星当面硬刚,甚至还曾对意大利球员维拉蒂爆粗口。这样硬朗的执哨风格被欧足联看重,使欧足联愿意把许多焦点战交给他执法。 欧洲杯决赛将是柯伊珀…

    2024年3月15日
  • 伊利诺伊大学怎么样

    伊利诺伊大学厄巴纳-香槟分校(University of Illinois at Urbana-Champaign)是一所位于美国伊利诺伊州厄巴纳-香槟市的公立研究型大学。该校成立于1867年,是美国最早的公立大学之一,也是美国大学协会和美国研究型大学协会的成员之一。 伊利诺伊大学厄巴纳-香槟分校在全球享有很高的声誉,被认为是世界一流的研究型大学之一。学校拥…

    2024年5月4日
  • 麻省理工大学对面的大学

    美国本土有数千所高等院校,各不同院校间的比较也是由来已久,今天小编要介绍的是普林斯顿大学pk麻省理工学院,一所是美国最顶尖的私立综合院校,一所是美国理工科的领军院校,这两所院校大PK,究竟谁更厉害? 普林斯顿大学 首先先介绍一下两所院校的基本情况,普林斯顿大学建立于1746年,位于新泽西州,是美国8所常春藤院校之一,在USNews美国大学排名中蝉联冠军,学校…

    2024年10月6日
  • 保研和出国留学怎么选

    标题灵感其实来源于老师们经常会遇到新来的学生问题:老师,我学校成绩还不错,但是出国也很吸引我,我到底该选哪个啊? 关于这个问题的答案当然很简单:你可以一起准备啊,这对我们来说没什么难的! 在这件事上从来不是一个单选题,真要你做选择,那已经是最后临门一脚的时刻了,在前期和中期的阶段,完全是可以一起进行的!在我们的老师们看来,不会有什么是不可兼得的! 共通点有很…

    2024年5月24日
  • 德州学院缺点

    德州学院原来也是个人才辈出的地方,原来人们对于他的记忆还停留在那个更名“鲁北大学”未获批准的年代,印象中北方学校的所有落魄似乎他都有了,可是一部留神德州学院的几件大事让我震撼到了! 飞机事件还记得吗? 各网络平台都有百科记录,也是此次事件让德州学院进入全国人民视野。2011年3月19日下午3点40分左右,一架红色直升机降落于学校南校区的操场上,一位女学生从容…

    2024年12月20日
  • 去日本读研一年大约多少钱

    今天,蔚蓝留学小编将为大家介绍一下日本读研留学一年学费生活费多少钱?希望能够给有意留学日本就读研究生的同学及其家长提供一些参考! 一、日本读研留学一年学费多少钱? 日本研究生期间学费一般都是由三部分组成,检定料,入学金以授业料。 检定料:9800日元 入学金:只需要交1次,84600日元 授业料:研究生期间学费是按照月来算的,29700日元/月,但是通常缴费…

    2024年6月30日
  • 经济学专业硕士(哥大经济学专业硕士)

    如果你在高考填志愿的时候准备选择经济学专业,或者已经是在读的大学生,那么以下这些发展建议一定要收藏好。 一、针对数学不好的同学。趁早换专业!!! 经济学是一个易学难精的专业,易学,是因为宏观理论课程偏文科,易理解,普通大众都能读懂入门。难精,就是数学卡着,精通是一个把学习知识转化为输出内容的过程,但是数学,你不会就是不会。很多经济学专业的同学,因为数学跟不上…

    2023年10月16日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信