fbpx
维基百科

大型语言模型

大语言模型 (英语:large language model,LLM) 是一种语言模型,由具有许多参数(通常数十亿个权重或更多)的人工神经网络组成,使用自监督学习半监督学习对大量未标记文本进行训练[1]。大型语言模型在2018年左右出现,并在各种任务中表现出色[2]

尽管这个术语没有正式的定义,但它通常指的是参数数量在数十亿或更多数量级的深度学习模型[3]。大型语言模型是通用的模型,在广泛的任务中表现出色,而不是针对一项特定任务(例如情感分析、命名实体识别或数学推理)进行训练[2]

尽管在预测句子中的下一个单词等简单任务上接受过训练,但发现具有足够训练和参数计数的神经语言模型可以捕获人类语言的大部分句法和语义。 此外大型语言模型展示了相当多的关于世界的常识,并且能够在训练期间“记住”大量事实[2]

大型语言模型列表 编辑

  • GPT
  • LLaMA(Meta)
  • LaMDA(google)
  • BLOOM (language model)英语BLOOM (language model)
  • baichuan-7B (百川智能公司发布中英文开源可免费商用的大模型 - 基于标准的Transformer结构,采用了类似LLaMA的模型设计。) [4][5]

參見 编辑


外部连接 编辑

  • Open LLM Leaderboard(开放LLM排行榜旨在跟踪、排名和评估开放LLM和聊天机器人)

参考资料 编辑

  1. ^ Goled, Shraddha. Self-Supervised Learning Vs Semi-Supervised Learning: How They Differ. Analytics India Magazine. May 7, 2021 [2023-06-08]. (原始内容于2023-06-18). 
  2. ^ 2.0 2.1 2.2 Manning, Christopher D. Human Language Understanding & Reasoning. Daedalus. 2022, 151 (2): 127–138 [2023-06-08]. S2CID 248377870. doi:10.1162/daed_a_01905. (原始内容于2023-03-09). 
  3. ^ Carlini, Nicholas; Tramer, Florian; Wallace, Eric; Jagielski, Matthew; Herbert-Voss, Ariel; Lee, Katherine; Roberts, Adam; Brown, Tom B; Song, Dawn; Erlingsson, Ulfar. Extracting Training Data from Large Language Models (PDF). USENIX Security Symposium 6. 2021. 
  4. ^ Baichuan Intelligent Technology Releases Its First Large-scale Pre-training Language Model baichuan-7B. Pandaily. 16 June 2023 [16 June 2023]. (原始内容于2023-06-15). 
  5. ^ baichuan-7B/README_EN.md. Baichuan Intelligent Technology. 16 June 2023 [16 June 2023]. (原始内容于2023-06-30). 


大型语言模型, 大语言模型, 英语, large, language, model, 是一种语言模型, 由具有许多参数, 通常数十亿个权重或更多, 的人工神经网络组成, 使用自监督学习或半监督学习对大量未标记文本进行训练, 在2018年左右出现, 并在各种任务中表现出色, 尽管这个术语没有正式的定义, 但它通常指的是参数数量在数十亿或更多数量级的深度学习模型, 是通用的模型, 在广泛的任务中表现出色, 而不是针对一项特定任务, 例如情感分析, 命名实体识别或数学推理, 进行训练, 尽管在预测句子中的下一个单词等简单. 大语言模型 英语 large language model LLM 是一种语言模型 由具有许多参数 通常数十亿个权重或更多 的人工神经网络组成 使用自监督学习或半监督学习对大量未标记文本进行训练 1 大型语言模型在2018年左右出现 并在各种任务中表现出色 2 尽管这个术语没有正式的定义 但它通常指的是参数数量在数十亿或更多数量级的深度学习模型 3 大型语言模型是通用的模型 在广泛的任务中表现出色 而不是针对一项特定任务 例如情感分析 命名实体识别或数学推理 进行训练 2 尽管在预测句子中的下一个单词等简单任务上接受过训练 但发现具有足够训练和参数计数的神经语言模型可以捕获人类语言的大部分句法和语义 此外大型语言模型展示了相当多的关于世界的常识 并且能够在训练期间 记住 大量事实 2 目录 1 大型语言模型列表 2 參見 3 外部连接 4 参考资料大型语言模型列表 编辑参见 Large language model List of large language models 英语 Large language model List of large language models GPT LLaMA Meta LaMDA google BLOOM language model 英语 BLOOM language model baichuan 7B 百川智能公司发布中英文开源可免费商用的大模型 基于标准的Transformer结构 采用了类似LLaMA的模型设计 4 5 參見 编辑聊天機器人 對話程式語言模型外部连接 编辑Open LLM Leaderboard 开放LLM排行榜旨在跟踪 排名和评估开放LLM和聊天机器人 参考资料 编辑 Goled Shraddha Self Supervised Learning Vs Semi Supervised Learning How They Differ Analytics India Magazine May 7 2021 2023 06 08 原始内容存档于2023 06 18 2 0 2 1 2 2 Manning Christopher D Human Language Understanding amp Reasoning Daedalus 2022 151 2 127 138 2023 06 08 S2CID 248377870 doi 10 1162 daed a 01905 原始内容存档于2023 03 09 Carlini Nicholas Tramer Florian Wallace Eric Jagielski Matthew Herbert Voss Ariel Lee Katherine Roberts Adam Brown Tom B Song Dawn Erlingsson Ulfar Extracting Training Data from Large Language Models PDF USENIX Security Symposium 6 2021 Baichuan Intelligent Technology Releases Its First Large scale Pre training Language Model baichuan 7B Pandaily 16 June 2023 16 June 2023 原始内容存档于2023 06 15 baichuan 7B README EN md Baichuan Intelligent Technology 16 June 2023 16 June 2023 原始内容存档于2023 06 30 取自 https zh wikipedia org w index php title 大型语言模型 amp oldid 78923819 指令微调, 维基百科,wiki,书籍,书籍,图书馆,

文章

,阅读,下载,免费,免费下载,mp3,视频,mp4,3gp, jpg,jpeg,gif,png,图片,音乐,歌曲,电影,书籍,游戏,游戏。