蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 日本文化服装学院(日本文化服装学院官网)

    在某学校,一场引人注目的活动于2023年9月21日隆重举行。学生们身着精心设计的日本校服,以一种前所未有的方式,将日本的时尚与传统完美融合,让整个校园都沉浸在异域风情之中。 活动引言 那天,阳光透过蓝天,洒在学校的操场上,仿佛为这一场特殊的活动铺上了金色的地毯。学生们排成整齐的队伍,穿着精心设计的日本校服,活动开始的一刻,人们就被眼前的场景所震撼。这个活动是…

    2023年11月21日
  • 法国留学中介排名

    2025法国旅游签证代办机构排名:专业服务力TOP3榜单 一、法国旅游签证的“痛点”:为什么需要专业代办? 2025年,法国成为国内游客暑期出境旅游的热门目的地,但法国申根签证的申请门槛让不少人犯了难——材料要求繁琐、行程规划需精准、面签回答要逻辑清晰,稍有不慎就可能拒签。找一家专业的法国旅游签证代办机构,成了很多人顺利出行的关键。 二、排名维度:如何选出“…

    2025年11月20日
  • 巴黎十一大学世界排名

    北京时间10月11日,在更新了法甲球员的身价之后,德转还列出了法甲俱乐部的总身价排名,巴黎圣日耳曼断崖式领先,马赛第二,摩纳哥第三。 德转更新后法甲俱乐部身价排名: 1. 巴黎圣日耳曼 11.5亿欧元(+7.1%) 2. 马赛 3.98亿欧元(+0.9%) 3. 摩纳哥 3.48亿欧元(+5.3%) 4. 斯特拉斯堡 2.78亿欧元(+4.6%) 5. 里尔…

    2025年11月19日
  • 南阳理工学院会改名吗

    薛谦让这人真有意思,放着县委书记不当,非要跑去麦田地里办大学,疯了吧? 可就是这个“疯子”,硬生生把南阳理工学院从野路子专科熬成了正牌本科,现在学校还在县城建新校区,地方高校挣扎求生的样子全在这所学校身上演完了。 看看90年代初那会儿,南阳想办大学有多难。 省里压根瞧不上,领导直接怼南阳“多大脸想办五所大学”。 薛谦让用笔名辛秉良在报纸上写文章造势,同事还笑…

    2025年8月20日
  • 埃塞克斯大学qs世界大学排名

    最近接到不少来自初三家长的咨询,这些孩子在国内成绩一般般,重点高中没希望,就想来新加坡读私立大学。 就像DeepSeek所说的,新加坡的私立大学都与英国、美国、澳大利亚等著名大学合作办学,毕业证书都是由国外本国大学颁发。 新加坡管理学院合作院校 伦敦大学学院:2025QS世界大学排名第9 澳洲伍伦贡大学:2025QS世界大学排名第167 皇家墨尔本理工大学:…

    2025年8月25日
  • 圣彼得堡大学分数线

    如同千军万马过独木桥,承载着无数家庭希冀与梦想,成为衡量学子未来走向标尺,当300多分高考成绩与“俄罗斯顶尖大学”这几个字联系一起时,人们脑海中不禁浮现出一个问号:这究竟是天方夜谭,还是另辟蹊径求学之路? 国内高等教育资源竞争激烈,985、211等名校更是成为众多学子梦寐以求目标,成为通往这些学府敲门砖,分数并非唯一评判标准,更不能定义一个人未来,一位高考成…

    2024年10月23日
  • 去韩国上大学一年的费用是多少

    来源:环球时报 【环球时报记者 金惠真】首尔地区学费最贵的大学,一年学费高达近900万韩元。韩国《文化日报》10日报道称,韩国教育部当天提交的“2020年度大学学费排名”资料显示,首尔地区大学中,学费最贵的是延世大学,该校各院系平均学费达893万韩元(约合人民币5.2万元),在全国193所4年制本科大学中排名第二。延世大学相关人士解释称,该校设有医科学院、留…

    2024年12月22日
  • 英国私立大学出售

    记者 | 戴梦馨 编辑 | 去海外买学校正在成为国内教育资本圈的时髦行为,博实乐教育(NYSE:BEDU)再次出手。 7月9日晚间,博实乐教育发布公告称,以1.92亿美元收购剑桥文理学院的全部股权。剑桥文理学院是一所私立寄宿学校,创立于1952年,面向英国本土学生和国际学生提供GCSE、A level、大学预科,及学术英语课程。 博实乐董事会执行副主席何军立…

    2025年3月28日
  • 中国排名前100的大学分数

    本文根据最近一年的各省参加高考考生人数情况,在我国华中、华东、华北、西南、华南、西北、东北地区中,选择高考人数最多或具有代表性的7个大省份:河南省、山东省、河北省、四川省、广东省、陕西省、辽宁省。对它们近年大学录取分数线情况进行收集排序。最后根据7个省的综合排名情况,进行统计计算,给出在国内录取分数线排名前100所大学。这样基本可以去除掉部分大学分数线在某省…

    2024年9月21日
  • 美国财经大学排名_美国财经大学排名前十

    对于想要申请美国金融专业的同学来说,了解美国大学金融专业的排名是申请的一个重要的参考。除了美国大学会计专业的排名,也要关注美国金融硕士排名和美国财经研究所排名。 对于那些想要在美国会计领域发展的同学来说,纽约等城市的大学会计专业、美国会计工作是不容忽视的。本文v小妹将会带你了解美国大学 TOP15 有哪些会计和金融学院!一起来看看吧! 宾夕法尼亚大学 (Un…

    2024年4月14日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信