蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 美国伊利诺伊大学排名_美国伊利诺伊大学排名qs

    全美大学综合排名前50院校,中国学生数量占比如下: ​​​1普林斯顿大学5.6% 2麻省理工学院7.2% 3哈佛大学4.5% 3斯坦福大学7.1% 5耶鲁大学6.4% 6宾夕法尼亚大学7.7% 7加州理工学院9.1% 7杜克大学8.6% 9约翰·霍普金斯大学12.0% 9西北大学6.7% 9布朗大学6.1% 12芝加哥大学10.1% 12康奈尔大学9.5% …

    2024年3月21日
  • 新加坡留学中心_新加坡留学中心浙江

    近日,上海外国语大学贤达经济人文学院新加坡留学中心正式成立。该中心是上外贤达学院在与中国留学服务中心嘉华世达共建“国际课程2+2出国留学项目”基础上,联合新加坡当地三大私立院校——新加坡管理学院、新加坡PSB Academy、新加坡KAPLAN高等教育学院成立的。 “新加坡留学中心的成立,将在教育国际化领域结成全面战略合作伙伴关系,进一步促进我校十四五规划中…

    2024年2月6日
  • 加拿大留学生碎尸案(加拿大留学生被碎尸)

    你永远无法想象,一个人可以变态到什么地步。 2012年5月25日,一段11分钟的视频开始在网络上热传,视频记录了一个凶手将一名年轻男子杀害、肢解、奸尸……然后吃掉部分尸身的过程。 当然,这都是后来从新闻中得知的,因为视频实在过于残忍,主页君只看了开头就关掉了。 这就是当年轰动世界的加拿大碎尸案,受害者是在加拿大康考迪亚大学就读的中国留学生林俊。 最近,网飞上…

    2023年11月14日
  • 考研的学校有哪些

    每年的考研和高考,对于考生朋友们来说就像是一场大戏。有的人春风得意,志得意满,有的人却只能黯然神伤。失魂落魄,这是绝大多数考生的真实写照。但是,还有极小一部分考生,他们凭借着其实并不高的分数,考上了本不应该属于他们分数段的大学和专业,我们一般把这样的小概率事件称之为“捡漏”。除了在高考阶段有考生能够捡漏之外,其实考研领域也是。而当下正值考研出线之际,到底有哪…

    2024年5月16日
  • 留学中介能做什么

    本文以我自己的观点和见闻来和大家分享留学中介做的那些事。 首先,留学机构最先与学生的接触是从学生咨询开始的。机构了解学生的基本学历背景和基本其他的情况。然后根据学生不同的留学兴趣和意向推荐相应的国家,他们肯定会首推澳大利亚,加拿大和英国等好申请录取高的国家和学校,其次再推荐美国和一些小语种国家的留学。我们以中介推荐留学德国为例。 中介了解到学生的基本情况后,…

    2024年5月21日
  • 全球空气质量排名国家_

    据泰媒消息,1月19日上午09:15,实时空气质量信息平台IQAir公布全球98个城市的空气质量的排名情况,其中,泰国曼谷的空气污染程度排在全球第8位,对人体的平均危害程度达165。 同时,泰国污染控制厅的Air 4 Thai程序显示,龙仔厝府的PM2.5粉尘值处于全泰国第1和第3高水平。其中,最高值出现在龙仔厝府府治县的Rama II公路区域,为85.1微…

    2024年3月22日
  • 会计学排名大学排名_会计学排名的大学

    国内最好的财政学专业大学排行 国内最好的财政学专业大学排名第一的是北京大学,排名第二的是中国人民大学,排名第三的是复旦大学。 国内最好的经济学专业大学排行 国内最好的统计学专业大学位列第一的是北京大学,位列第二的是中国人民大学,位列第三的是复旦大学。 国内最好的会计学专业大学排行 国内最好的会计学专业大学排在第一的是中国人民大学,排在第二的是上海财经大学,排…

    2024年4月9日
  • 博特拉大学相当于国内的什么水平_博特拉大学回国现状

    1、马来亚大学 马来亚大学是马来西亚最好的大学,是一所文理学科和医学兼有的综合性世界名校,很多马来西亚的首相都从这里毕业(马哈迪、都拉巴达威、安华)。学校的优势专业有:管理学、会计、市场营销、经济学、工商管理、公共管理、教育管理、传媒等。 排名:2022QS世界大学排名65位 国内含金量: ①对工作发展至关重要 目前很多高端工作,在马来亚大学读硕士可以获得国…

    2024年3月8日
  • 蓝带学院毕业后工资

    十年前,高考651分、立志成为一名科学家的崔迪不会想到,大学毕业后的自己会选择做一名厨师。 那时,建筑专业还没有被冠以“天坑”专业之称,崔迪也并非不喜欢它。只是这份喜欢不足以让她整天端坐在电脑前,投入无穷无尽的时间。 做厨师的决定当然遭到了家里的反对,虽然最后双方都有妥协,但她也失去了抱怨的资格。在米其林二星餐厅实习时,早8晚12的工作强度一度让她苦不堪言,…

    2024年12月14日
  • 美国康大是哪个大学

    除了哈佛大学、麻省理工学院等热门的院校之外,美国还有很多优秀的大学,今天要给大家分享的这个学校也是久负盛名的哦。 康奈尔大学是一所世界著名研究型综合大学,位于美国纽约州伊萨卡市,由艾兹拉·康乃尔于1865创建。在所有“常春藤盟校”中,康奈尔是历史最短的一个,而同时它又是最大的一个。该大学在全球范围内享有盛誉,是全世界的顶尖名校,著名的常青藤盟校成员,共有50…

    2024年11月14日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信