蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 达特茅斯学院在美国排名

    美国达特茅斯学院在2020年《美国新闻与世界报道》美国全国性大学排名第12名,在2020年QS世界大学排名中排名第207名。 达特茅斯学院专业排名 QS世界大学生命科学与医学专业排名 2020年 第217名 QS世界大学医学专业排名 2020年 第101名 QS世界大学艺术与人文专业排名 2020年 第224名 QS世界大学工程与技术专业排名 2020年 第…

    2024年9月29日
  • 荷兰留学安全吗

    千万不要去荷兰留学,因为只要你选择了荷兰,你就再也不想离开荷兰了! 荷兰是全球幸福感最高的国家之一!羊角村、风车、郁金香、奶酪、梵高……都是荷兰的象征,荷兰的各大名校也是吸引了世界各地留学生,这几年选择去荷兰的留学生数量日益增加,一起来看看到底是什么吸引了这么多小伙伴选择去荷兰留学生活呢? 高质量的教育 荷兰拥有一整套全国性的高等教育质量监控体系和配套的法律…

    2024年5月15日
  • 美国体育运动排名_美国体育运动排名前十

    说起NBA,想必大多数中国球迷都认为,这是美国第一运动联盟,他们曾经拥有神一般的“乔丹”,永远让人怀念的黑曼巴“科比”,以及令人景仰的奋进人物詹姆斯,当红炸子鸡约基奇,以及三分王库里,还有杜兰特,字母哥,莫兰特,塔图姆等一众巨星,我国的传奇人物姚明也曾在NBA征战数载,易建联,王治郅,孙悦也曾在那里小试牛刀。 可是,这样派出球员被称为梦之队的篮球联盟,却不是…

    2024年4月7日
  • 伯明翰大学财务管理硕士怎样

    伯明翰大学财务管理理学硕士专业课程适合有数学背景但又缺乏会计学、经济学或金融学知识的毕业生而设,为学生们提供在金融领域工作所需的知识和技能,使其在竞争激烈的全球金融行业中处于优势地位。通过伯明翰大学财务管理理学硕士专业课程的学习,学生将掌握:公司财务与外汇交易市场的知识;解读和分析财务报表的能力;运用各类金融建模技术来分析数据、实施研究以及预测变量的能力;证…

    2024年12月25日
  • 全国大学排名前50强榜单

    \r 说到中国大学,大家都知道清华北大是老大哥,但其他学校实力怎么样你清楚吗?\r南京大学、中央大学、四川大学、山东大学这些名字大家肯定都听过,它们在全国到底排第几?今天咱们就来看看最新的大学综合实力50强榜单,看看你母校上榜没! \r\r\r\r\r\r\r\r 看完这份大学综合实力50强榜单,大家是不是也有点意外?有的老牌名校依然稳坐前排,也有些学校悄悄…

    3天前
  • 德国留学语言(德国留学语言条件)

    经常有家长朋友询问我:我的孩子没有德语基础,可以去德国留学吗? 答案是肯定的:可以。 在去年10月21日,德国学术交流中心 DAAD 曾发布年度报告《2022年德国高等教育与科学研究中心》(Wissenschaft weltoffen 2022),统计了2020/21学年德国学生以及在德国留学的外国学生情况。我们获得了以下信息: 01 德国是世界上最受国际学…

    2023年9月27日
  • 科罗拉多州立大学硕士申请

    对于想要申请科罗拉多州立大学研究生的学生来说,都需要准备什么也是大家所关心的问题,接下来立思辰留学小编为大家详细介绍 考试准备 学校研究生要求正规大学本科毕业并取得学士学位,GPA要求:本科GPA要求不低于3.0分,语言要求:TOEFL要求不低于80分,IELTS要求不低于6.5分,均无单项分数要求 材料准备 在线申请表 申请费:70美元 正式成绩单 GRE…

    2025年2月24日
  • 英国埃塞克斯大学世界排名_英国埃塞克斯大学世界排名qs

    埃塞克斯大学世界排名 2020年QS世界大学排名第 370 位 2019年QS世界大学排名第 355 位 2018年QS世界大学排名第 352 位 2017年QS世界大学排名第 330 位 埃塞克斯大学学校优势 很多人讲起埃塞克斯大学,都是觉得没听说过或者“有点印象”。埃塞克斯大学作为泰晤士报上的“隐士”,在民间是有很高声誉的。因为埃塞克斯大学主要致力于科研…

    2024年4月18日
  • 英国大学最新排名国王学院

    爱丁堡大学和伦敦国王学院都是留学院校中优秀的选择,如果你纠结这两所院校,可以从多方面来考虑。如果你更喜欢历史悠久的城市和较低的生活成本,爱丁堡大学可能更适合你。而如果你追求国际化的商业机会和丰富的文化生活,伦敦国王学院可能是更好的选择。 那么,如果你想了解更多信息来进一步综合考虑,那就继续阅读本文吧! 一、爱丁堡大学和伦敦国王学院综合实力对比 在学术声誉和排…

    2024年10月27日
  • 哥本哈根大学授课型

    吴春萍 彭子柱 关于海南法院工作,有两个小故事值得一提: ——涉案标的额达2.75亿元人民币的法国巴黎银行诉光汇宝石油轮有限公司船舶抵押借款合同纠纷案,成功在海口海事法院调解结案。鲜为人知的是,原告法国巴黎银行是在可以选择管辖法院的情况下,基于对中国法院处理纠纷能力的信任,主动选择向海南法院提起诉讼。 ——仲裁过程中,是否可以请求行为保全?法律规定并不明确。…

    2025年9月10日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信