蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 日本近畿大学为什么人气高

    近畿大学(きんきだいがく英语:Kindai University),简称近大,本部设于日本大阪府东大阪市,是一所日本私立大学。该校建立于1925年,位列日本关西地区“产近甲龙”之一。近畿大学前身为1925年成立的大阪专业学校和1943年成立的大阪理工科大学。是日本西部地区规模最大的著名私立大学,位列日本关西地区传统八大私立的第二梯队,属于关西地区最具影响力的…

    2025年3月25日
  • 4人在ICU救治!深圳欢乐谷“惊魂”过山车造价达2亿 数月前完成大修

    10月27日,正值周五,夜幕降临,不少结束工作后的游客涌入深圳欢乐谷,相当部分人是循着“刺激项目”来的。 游乐场里,大多数人都沉浸在休闲氛围中,没有多少人意识到,景区东北角的过山车上,已经发生了安全事故。对当时在过山车上的人来说,这确实是一个惊魂夜。 据深圳欢乐谷景区通报,10月27日18时27分左右,“雪域雄鹰”过山车项目发生车辆碰撞,造成8人受伤。另据新…

    2023年10月29日
  • 南京新加坡留学中介

    想必大家心里也都很清楚,南京的留学中介到底有多多,也知道想找到一家合适中介有多不容易! 今天小编就整理了几家留学中介,大家可以考察一下! ✅ ️好年华留学 中介介绍: 好年华留学,可以说是江苏本地的留学中介,总部就在南京。而且中介不仅在江苏多个城市设有分部,在国外还有办事处和联络处, 主打业务: 中介主要以留学申请和语言培训服务为主,留学申请国家有美国、加拿…

    2024年1月25日
  • 考研究生需要什么条件?_自学考研究生需要什么条件

    研究生考试需要什么条件 报考研究生需要满足哪些条件呢?首先,对于学历的要求,本科毕业生无论是应届还是往届,都可以直接报名参加。而专科毕业生则需要获得国家承认的大专学历,并且毕业后两年或以上,才能以与大学本科毕业生同等学历的身份报考。 对于成人高考的毕业生来说,大专毕业生需要毕业后两年或以上,才能以与大学本科毕业生同等学历的身份报考。成人高考的应、往届本科毕业…

    2024年3月8日
  • 哈佛大学邮寄地址查询

    2020申请季不出意外,顶尖名校“哈耶普斯麻”将再次上演万人争抢的局面。然而,对大部分学子来说,他们的辛勤付出或许并不能换来梦校的青睐。因为名校申请之路,从来都不平坦。以哈佛大学为例,相关数据显示:虽然哈佛大学在2018年共收到4.3万份入学申请,但只有2024位幸运儿被成功录取。 每年不到5%的录取率,让哈佛成为诸多学子心中求而不得的“白月光”。不过,受去…

    2025年5月29日
  • 英国纽卡斯尔大学好吗

     纽卡斯尔大学,简称纽大,是位于英国英格兰东北部的世界一流研究型大学,英国著名公立大学。纽大是英国著名的常春藤联盟罗素大学集团,N8大学联盟的成员,英国老牌名校之一,拥有英国顶尖的医学院,同时该校在科学、工程、法学及人文社科等方面皆相当出色,此外,也是英国拥有最多欧盟研究文件的大学之一。跟着小编一起来看看世界排名领先,纽卡斯尔大学到底有多厉害?纽卡斯尔大学在…

    2024年7月10日
  • 韩国本科留学条件要求

    1.提前准备好材料 去韩国留学需要准备的资料还挺多的,比如你的韩语能力考试级证书,还有你的高考成绩以及推荐信,另外还需要有英语等级证明,这个可以是托付或者雅思等考试的成绩。 2.提前准备好费用 出国留学所需的费用并不低,不管你是去韩国,还是别的什么国家,而且还根据你所选读的学校以及就读的专业有关。一般出国留学一年的花费起码要好几万,如果达不到十万的年收入,就…

    2025年10月31日
  • 雪城大学好吗

    雪城大学是美国著名的综合性、研究型大学,该校成立于1870年,坐落于美国纽约州雪城市内。自19世纪末以来,先后有800多名雪城大学的毕业生担任美国国会参议员、众议员、联邦政府的高级官员,以及州长和州政府的高级官员。因此,雪城大学赢得了“美国政治家摇篮”的美誉。 雪城大学院系 雪城大学由13个学院组成,下设的学院有:大学学院、建筑学院、文理学院、研究生院、教育…

    2024年7月9日
  • 早稻田大学修士学费

    #留学# 爱思学留学: 深耕留学咨询20年,30万家庭的选择。 干货+真实学生笔记,一键避坑! 对于有志于赴日深造的学子而言,留学费用是规划求学路径时的关键考量因素。日本大学TOP30的费用体系呈现出国立、公立、私立三轨并行的鲜明特征,学费与生活费的组合差异既反映了院校层次、办学性质,也与地域经济水平深度绑定。以下从费用结构、院校类型、地域影响三个维度,为你…

    2025年11月5日
  • 德州职业技术学院招生办电话

    01 02 03 04 05 为使广大考生及家长准确、及时了解德州职业技术学院招生政策、招生计划、历年录取分数等相关信息,现将2024年学校招生具体咨询方式公布如下: 学校招生咨询热线 咨询电话:4001557117(报考咨询电话工作时间:8:00-17:00) 考生及家长可拨打招生电话咨询报考相关问题。 德州职业技术学院招生信息网 网址:https://z…

    2025年7月1日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信