蒙特利尔大学llm怎么样

HuggingFace 上的顶级 LLM 模型表现优于 GPT 变体

您好,欢迎来到我的博客!今天我将与您分享一些您可以在 Hugging Face 上找到的比 GPT 更好的最佳 LLM 模型。如果您想知道LLM是什么,它们是大型语言模型,可以根据某些输入生成文本。他们接受了大量数据的训练,可以学习模仿不同风格、流派和领域的文本。它们也非常强大且用途广泛,因为它们可用于各种任务,例如文本摘要、问答、文本生成等。

但为什么它们比 GPT 更好呢? GPT 是由 OpenAI 开发的非常受欢迎且令人印象深刻的LLM。它有多个版本,例如 GPT-2、GPT-3 和 GPT-J,它们具有不同的尺寸和功能。然而,GPT 并不是唯一的LLM,不同的研究人员和组织创建的许多其他模型可以在某些方面与 GPT 相媲美甚至超越。在这篇博文中,我将向您介绍其中一些模型,并向您展示如何将它们与 Hugging Face 一起使用。

Hugging Face 是一个令人惊叹的平台,提供对超过 12 万个模型、2 万个数据集和 5 万个演示应用程序 (Spaces) 的访问,所有这些都是开源且公开的。您可以通过 Transformers 库轻松浏览、下载和使用这些模型,Transformers 库是一个 Python 库,提供了一种用户友好且有效的方法来使用 LLM。您还可以向 Hugging Face Hub 贡献自己的模型和数据集,并与社区中的其他用户和专家协作。

因此,言归正传,让我们来看看您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。

Vigogne

Vigogne 是由 Bofeng Huang 及其蒙特利尔大学团队开发的LLM系列。它们基于 GPT 架构,但进行了一些修改和改进,使它们更加高效和强大。例如,他们使用一种名为 LORA 的新技术,它代表注意力的局部重新加权,以减少注意力机制的内存和计算成本。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/bofenghuang/vigogne-7b-chat

Vigogne 型号有不同的尺寸和风格,参数范围从 7B 到 33B。他们可以为各种领域生成高质量的文本,例如聊天、指令和绽放。您可以在 Hugging Face Hub 上以“bofenghuang”用户名找到它们。例如,您可以尝试 vigogne-7b-chat 模型,它可以根据某些输入生成引人入胜且连贯的对话。以下是如何将其与转换器库一起使用的示例:

import torchfrom transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfigfrom vigogne.preprocess import generate_inference_chat_promptmodel_name_or_path = "bofenghuang/vigogne-7b-chat"tokenizer = AutoTokenizer.from_pretrained(model_name_or_path, padding_side="right", use_fast=False)model = AutoModelForCausalLM.from_pretrained(model_name_or_path, torch_dtype=torch.float16, device_map="auto")user_query = "Expliquez la différence entre DoS et phishing."prompt = generate_inference_chat_prompt([[user_query, ""]], tokenizer=tokenizer)input_ids = tokenizer(prompt, return_tensors="pt")["input_ids"].to(model.device)input_length = input_ids.shape[1]generated_outputs = model.generate( input_ids=input_ids, generation_config=GenerationConfig( temperature=0.1, do_sample=True, repetition_penalty=1.0, max_new_tokens=512, ), return_dict_in_generate=True,)generated_tokens = generated_outputs.sequences[0, input_length:]generated_text = tokenizer.decode(generated_tokens, skip_special_tokens=True)print(generated_text)

JAIS

JAIS 是由 Core42 及其阿尔伯塔大学团队开发的另一个LLM系列。它们也基于 GPT 架构,但进行了一些增强和优化,使它们更加健壮和可扩展。例如,他们使用一种称为 GPTQ(GPT 量化)的技术,通过使用较低精度的算术来减少模型的大小和延迟。他们还使用一种称为 ACTORDER(代表激活排序)的技术,通过对激活函数重新排序来提高模型的并行性和吞吐量。

链接 — https://huggingface.co/core42/jais-13b

JAIS型号有不同的尺寸和版本,参数范围从13B到30B。它们可以为各种领域生成高质量的文本,例如 chat、bloom 和 jais。您可以在 Hugging Face Hub 上以 core42 用户名找到它们。例如,您可以尝试 jais-13b-chat-hf 模型,它可以根据一些输入生成幽默诙谐的对话。以下是如何将其与转换器库一起使用的示例:

# -*- coding: utf-8 -*-import torchfrom transformers import AutoTokenizer, AutoModelForCausalLMmodel_path = "inception-mbzuai/jais-13b"device = "cuda" if torch.cuda.is_available() else "cpu"tokenizer = AutoTokenizer.from_pretrained(model_path)model = AutoModelForCausalLM.from_pretrained(model_path, device_map="auto", trust_remote_code=True)def get_response(text,tokenizer=tokenizer,model=model): input_ids = tokenizer(text, return_tensors="pt").input_ids inputs = input_ids.to(device) input_len = inputs.shape[-1] generate_ids = model.generate( inputs, top_p=0.9, temperature=0.3, max_length=200-input_len, min_length=input_len + 4, repetition_penalty=1.2, do_sample=True, ) response = tokenizer.batch_decode( generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=True )[0] return responsetext= "عاصمة دولة الإمارات العربية المتحدة ه"print(get_response(text))text = "The capital of UAE is"print(get_response(text))

BERTIN

BERTIN 是一门独特的LLM,由 Manuel Romero 及其在 Platzi 的团队开发。它基于 GPT-J 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,BERTIN 不仅仅是 GPT-J 的复制品,而是一个在大型且多样化的西班牙语文本语料库上训练的新颖模型。它是第一个可以生成高质量西班牙语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/mrm8488/bertin-gpt-j-6B-ES-8bit

BERTIN有不同的尺寸和版本,参数范围从6B到12B。它可以为各种领域生成高质量的文本,例如聊天、alpaca 和 chivo。您可以在 Hugging Face Hub 上以用户名 mrm8488 找到它。例如,您可以尝试 bertin-gpt-j-6B-ES-8bit 模型,它可以根据某些输入生成流畅且连贯的西班牙语文本。以下是如何将其与转换器库一起使用的示例:

import transformersimport torchfrom Utils import GPTJBlock, GPTJForCausalLMdevice = "cuda" if torch.cuda.is_available() else "cpu"transformers.models.gptj.modeling_gptj.GPTJBlock = GPTJBlock # monkey-patch GPT-Jckpt = "mrm8488/bertin-gpt-j-6B-ES-8bit"tokenizer = transformers.AutoTokenizer.from_pretrained(ckpt)model = GPTJForCausalLM.from_pretrained(ckpt, pad_token_id=tokenizer.eos_token_id, low_cpu_mem_usage=True).to(device)prompt = tokenizer("El sentido de la vida es", return_tensors='pt')prompt = {key: value.to(device) for key, value in prompt.items()}out = model.generate(**prompt, max_length=64, do_sample=True)print(tokenizer.decode(out[0]))

Mistral

Mistral 是由 FPHam 及其剑桥大学团队开发的LLM系列。它们基于 GPT-2 架构,但进行了一些扩展和改进,使它们更具表现力和多样性。例如,他们使用一种名为 CLP(即对比语言预训练)的技术来增强模型捕捉自然语言不同方面的能力,例如风格、情感和主题。他们还使用一种称为 PEFT(位置编码微调)的技术,使模型的位置编码适应不同的任务和领域。

链接 — https://huggingface.co/mistralai/Mistral-7B-v0.1

Mistral 型号有不同的尺寸和版本,参数范围从 6B 到 7B。他们可以为各个领域生成高质量的文本,例如指导、问题和绽放。您可以在 Hugging Face Hub 上以 FPham 用户名找到它们。例如,您可以尝试 Mistra-7b-chat 模型,它可以根据某些输入生成相关且有趣的问题。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("openskyml/mistral-7b-chat")model = AutoModelForCausalLM.from_pretrained("openskyml/mistral-7b-chat")# encode the input textinput_ids = tokenizer.encode("The Eiffel Tower is a famous landmark in Paris.", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

Igel

Igel 是一个独特的LLM,由 Phil Schmid 和他的 Hugging Face 团队开发。它基于 GPT-Neo 架构,该架构是 EleutherAI 创建的 GPT-3 的变体。然而,Igel 不仅仅是 GPT-Neo 的复制品,而是一个在大型且多样化的德语文本语料库上训练的新颖模型。它是第一个可以生成高质量德语文本的LLM,还可以处理代码生成和其他任务。

链接 — https://huggingface.co/philschmid/instruct-igel-001

Igel有不同的尺寸和版本,参数范围从2.7B到13B。它可以为各种领域生成高质量的文本,例如chat、alpaca和 igel。您可以在 Hugging Face Hub 上以用户名 philschmid 找到它。例如,您可以尝试 instruct-igel-001 模型,它可以根据某些输入生成流畅且连贯的德语文本。以下是如何将其与转换器库一起使用的示例:

from transformers import AutoTokenizer, AutoModelForCausalLMtokenizer = AutoTokenizer.from_pretrained("philschmid/instruct-igel-001")model = AutoModelForCausalLM.from_pretrained("philschmid/instruct-igel-001")# encode the input textinput_ids = tokenizer.encode("Wie macht man einen Kuchen?", return_tensors="pt")# generate the output textoutput_ids = model.generate(input_ids, max_length=50)# decode the output textoutput_text = tokenizer.decode(output_ids[0], skip_special_tokens=True)print(output_text)

结论

这些是您可以在 Hugging Face 上找到的一些比 GPT 更好的最佳 LLM 模型。它们不仅令人印象深刻、功能强大,而且创新且多样化。它们可以为各种领域、语言和任务生成高质量的文本,并且还可以轻松地与 Transformer 库一起使用。您还可以在 Hugging Face Hub 上探索其他LLM模型,并发现可以满足您的需求和兴趣的新的、令人兴奋的模型。

声明:壹贝网所有作品(图文、音视频)均由用户自行上传分享,仅供网友学习交流,版权归原作者wangteng@admin所有,原文出处。若您的权利被侵害,请联系 756005163@qq.com 删除。

本文链接:https://www.ebaa.cn/29327.html

(0)
上一篇 2024年7月24日
下一篇 2024年7月24日

相关推荐

  • 香港理工大学研究生录取通知时间

    24年香港研究生申请已经到了尾声,相信不少同学都拿到了心仪学校的录取,那么你是否拿到录取了呢?还是还在犹豫不决,没有下定决心申请呢? 今天一起来了解一下香港理工大学吧,以理工科为强项的香港名校! 香港理工大学是香港历史最悠久的大学之一、香港第一所由政府资助、提供工科教育的院校,同时也是一所世界知名公立综合性研究型大学,以世界顶尖的工科教育闻名,同时工商管理学…

    2024年9月26日
  • 渥太华大学研究生学费_渥太华大学研究生学费一年多少

    渥太华大学位于加拿大首都渥太华,其音乐、戏剧和视觉艺术专业享有良好声誉。该校的艺术学院设有现代化的设施和专业工作室,为学生提供良好的学习环境。学生还可以参与校园艺术活动和社团,丰富自己的艺术经验。 一、渥太华大学排名 2022渥太华大学世界排名:230 2021渥太华大学世界排名:279 2020渥太华大学世界排名:281 2019渥太华大学世界排名:289…

    2024年2月26日
  • 隔夜外盘:美股三大指数小幅收跌 热门中概股普跌

    美股市场:美股三大指数小幅收跌,截至收盘,道琼斯指数收跌62.75点,跌幅0.18%,报35088.29点;纳斯达克指数收跌84.55点,跌幅0.59%,报14199.98点;标普500指数收跌9.19点,跌幅0.20%,报4538.19点。美联储周二发布了10月31日至11月1日的联邦公开市场委员会(FOMC)货币政策会议纪要。决策者认为,利率将在一段时间…

    2023年11月22日
  • 宾夕法尼亚大学建校时间

    四月中旬去了趟费城,顺便参观了常春藤名校宾夕法尼亚大学。 大女儿三月刚刚被宾夕法尼亚大学医学院录取,四月11、12号她去那里参加为录取新生举办的Second Look活动,这个活动的目的是让学生们增加对学校的了解,使他们下决心做出选择。四月份差不多每个医学院都举办这样的活动。 我们在周六到达费城,与女儿会和,第二天上午女儿带着我们在宾大校园转了一圈,中午在费…

    2025年1月14日
  • 昆士兰大学申请研究生条件

    昆士兰大学作为澳大利亚的顶尖学府之一,其研究生项目在全球范围内享有盛誉。对于许多有志于深造的学子来说,昆士兰大学无疑是一个理想的求学之地。然而,申请昆士兰大学研究生并非易事,需要满足一定的条件和经过严格的筛选。本文将详细介绍昆士兰大学研究生申请的难度和条件,帮助有意向的申请者更好地了解和准备。 一、昆士兰大学研究生申请难度 昆士兰大学研究生申请难度相对较高,…

    2024年8月25日
  • 澳洲大学商学院排名榜

    (图表来源:AFR) 根据最新公布的2023年AFR BOSS澳洲最佳商学院排行榜,新南威尔士大学连续第二年被评为澳洲最佳商学院,墨尔本大学位居第二位,昆士兰科技大学排名第三。 在排名靠前的商学院中,有四所不属于著名的八大院校,它们是昆士兰科技大学、麦考瑞大学、南澳大利亚大学和迪肯大学。 该榜单对37所澳洲商学院进行了排名,排名依据分为三个单项,分别是质量、…

    2025年4月9日
  • 香港城市大学(香港城市大学研究生申请条件)

    香港城市大学(City University of Hong Kong)简称“城大”,是香港一所国际知名的公立研究型大学,成立于1984年。学校位于香港九龙塘区,校园占地面积约为15万平方米,环境优美,设施先进。 香港城市大学是香港八所公立大学之一,也是香港最年轻的大学之一。学校以其卓越的教学和研究水平而闻名,被公认为亚洲和世界上一流的大学之一。学校的学术研…

    2023年11月16日
  • 友邦国际深泉学院

    潮新闻客户端 何君君 勾嵊山,又名句无山,会稽之余脉,“勾践所都也”。它是越王卧薪尝胆地,更是春秋末期吴越争霸无可争议的地标,见证了吴越两国的“其兴也勃,其亡也忽”。 公元前494年,越国战败,“国为墟棘,身为鱼鳖”;公元前473年,越军破姑苏,擒夫差,“越兵横行于江淮上”,“中国皆畏之”,成为战胜国。 公元前492年,越王勾践君臣入吴,拘于石室,养马为奴;…

    2024年11月18日
  • 卡内基大学(卡内基大学世界排名)

    卡内基梅隆大学(Carnegie Mellon University)是一所位于美国宾夕法尼亚州匹兹堡市的私立研究型大学。它于1900年由钢铁巨头安德鲁·卡内基创立,起初是一所工程学院,后来逐渐发展成为一所综合性大学。卡内基梅隆大学以其在计算机科学、人工智能、工程学、商学和艺术等领域的卓越教育和研究而闻名。 以下是卡内基梅隆大学的一些特点和亮点: 1. 学术…

    2023年11月22日
  • 爱尔兰出国留学费用_爱尔兰出国留学的费用

    爱尔兰留学性价比高。 想必关心留学的大家或多或少都听说过这句话。 那么爱尔兰是不是真的是性价比很高的留学地呢? 下面我就带大家分析一下留学爱尔兰的支出和收入,看看留学爱尔兰的性价比究竟如何。 一.支出 1.学费 既然是留学,那学费必然是首先要关注的。 这里以硕士留学为例。 爱尔兰的全日制硕士课程一般都是一年制的,这也就意味着学生只需要承担一年的学费。 此外,…

    2024年3月29日

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信