GPT (言語モデル)とは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > 百科事典 > GPT (言語モデル)の意味・解説 

GPT (言語モデル)

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/04/05 13:08 UTC 版)

オリジナルのGPTモデル

Generative Pre-trained TransformerGPT)は、OpenAIによる言語モデルのファミリーである。通常、大規模なテキストデータのコーパスで訓練され、人間のようなテキストを生成する。Transformerアーキテクチャのいくつかのブロックを使用して構築される。テキスト生成翻訳文書分類など様々な自然言語処理のタスクに合わせてファインチューニングすることができる。名称に含まれる"pre-trained"(事前訓練)とは、大量のテキストコーパスでの最初の訓練プロセスを指し、モデルが節の次の単語を予測することを学習する。これにより、タスク固有のデータの限られた量のダウンストリームタスクでモデルが適切に動作するための強固な基盤が提供される。

GPT-1

2018年6月11日、OpenAIは"Improving Language Understanding by Generative Pre-Training"というタイトルの論文をリリースし、その中でGPT(Generative Pre-trained Transformer)を導入した[1]

この時点では最高のパフォーマンスを行うニューラル自然言語処理モデルは、主に手動でラベル付けされた大量のデータからの教師あり学習を採用していた。この教師あり学習への依存は、十分に注釈が付けられていないデータセットの使用を制限するだけでなく、非常に大規模なモデルの訓練に莫大な費用と時間がかかっていた[1][2]。多くの言語(スワヒリ語ハイチ・クレオール語など)は、コーパス構築に使用できるテキストが不足しているため、このようなモデルを使用して翻訳や解釈をすることが難しい[2]。これに対して、GPTの「半教師あり」アプローチには2つの段階が含まれていた。2つの段階は、言語モデリングの目的を使用して初期パラメータを設定する教師なし生成「事前訓練」段階と、これらのパラメータがターゲットとするタスクに適合された教師あり識別「ファインチューニング」段階である[1]

訓練には NVIDIA Quadro P600 を8枚30日使用し、実行効率33%のため、0.96ペタFLOPS・日となった。[3]

シリーズ一覧

名称 用途 アーキテクチャ パラメータ数 訓練データ リリース日
GPT-1 汎用 12-level, 12-headedのTransformerデコーダ(エンコーダなし)、linear-softmaxによりフォローされる。 1億1700万 BookCorpus[4] 様々なジャンルの7000冊の未発表書籍からの4.5GBのテキスト 2018年6月11日[3]
GPT-2 汎用 GPT-1 + 正規化/初期化 15億 WebText(40GB) 2019年2月14日
GPT-3 汎用 GPT-2 + スパースアテンション 1750億[5] 570GBのプレーンテキスト、4000億のトークン。主にCommonCrawl, WebText, English Wikipedia, および2つの書籍コーパス(Books1およびBooks2). 2020年6月11日[6]
Codex プログラミング GPT-3をプログラミング用途に調整 2021年8月10日[7]
InstructGPT 会話 GPT-3を人間のフィードバックによる指示に従うよう微調整[8] 2022年3月4日
GPT-3.5 汎用 非公開 非公開 非公開 2022年3月15日
ProtGPT2 タンパク質配列[9] GPT-2 large(36層)と同様 7億3800万 UniRef50からのタンパク質配列(計4488万、検証のために10%を使用した後) 2022年7月27日
BioGPT 生物医学のコンテンツ[10][11] GPT-2 medium(24層、16 heads)と同様 3億4700万 PubMedの空でない項目(計150万) 2022年9月24日
ChatGPT 会話 GPT-3.5を使用し、教師あり学習とRLHF[12]の両方でファインチューニングされている(転移学習のアプローチ)[13] 非公開 非公開 2022年11月30日
GPT-4 汎用、マルチモーダル[14] テキスト予測とRLHFの両方で訓練されている。詳細非公開[15] 非公開 非公開 2023年3月14日

出典

  1. ^ a b c Improving Language Understanding by Generative Pre-Training”. OpenAI. pp. 12 (2018年6月11日). 2021年1月26日時点のオリジナルよりアーカイブ。2021年1月23日閲覧。
  2. ^ a b Tsvetkov, Yulia (2017年6月22日). “Opportunities and Challenges in Working with Low-Resource Languages”. Carnegie Mellon University. 2020年3月31日時点のオリジナルよりアーカイブ。2021年1月23日閲覧。
  3. ^ a b Improving language understanding with unsupervised learning” (英語). openai.com. 2023年3月18日閲覧。
  4. ^ Zhu, Yukun; Kiros, Ryan; Zemel, Rich; Salakhutdinov, Ruslan; Urtasun, Raquel; Torralba, Antonio; Fidler, Sanja (2015). Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. pp. 19–27. arXiv:1506.06724. https://www.cv-foundation.org/openaccess/content_iccv_2015/html/Zhu_Aligning_Books_and_ICCV_2015_paper.html. 
  5. ^ Ouyang, Long; Wu, Jeff; Jiang, Xu et al. (4 March 2022). “Training language models to follow instructions with human feedback”. arXiv:2203.02155 [cs]. https://arxiv.org/abs/2203.02155 2023年3月23日閲覧。. 
  6. ^ Improving language understanding with unsupervised learning” (英語). openai.com. 2023年3月18日閲覧。
  7. ^ OpenAI Codex”. 2023年5月5日閲覧。
  8. ^ Aligning language models to follow instructions”. openai.com. 2023年3月23日閲覧。
  9. ^ Ferruz, N., Schmidt, S. & Höcker, B. (27 July 2022). “ProtGPT2 is a deep unsupervised language model for protein design.”. Nature Communications Volume 13 (1): 4348. Bibcode2022NatCo..13.4348F. doi:10.1038/s41467-022-32007-7. PMC 9329459. PMID 35896542. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9329459/. 
  10. ^ Luo R, Sun L, Xia Y, Qin T, Zhang S, Poon H (24 September 2022). “BioGPT: generative pre-trained transformer for biomedical text generation and mining.”. Brief Bioinform 23 (6). doi:10.1093/bib/bbac409. PMID 36156661. https://www.ncbi.nlm.nih.gov/entrez/eutils/elink.fcgi?dbfrom=pubmed&tool=sumsearch.org/cite&retmode=ref&cmd=prlinks&id=36156661. 
  11. ^ Matthias Bastian (2023年1月29日). “BioGPT is a Microsoft language model trained for biomedical tasks”. The Decoder. 2023年3月18日閲覧。
  12. ^ Introducing ChatGPT” (英語). openai.com. 2023年3月16日閲覧。
  13. ^ Quinn, Joanne (2020). Dive into deep learning: tools for engagement. Thousand Oaks, California. p. 551. ISBN 9781544361376. オリジナルのJanuary 10, 2023時点におけるアーカイブ。. https://web.archive.org/web/20230110131250/https://d2l.ai/chapter_computer-vision/fine-tuning.html#steps 2023年1月10日閲覧。 
  14. ^ テキストと画像の両方を入力として受け付ける。
  15. ^ OpenAI (2023年). “GPT-4 Technical Report”. 2023年3月18日閲覧。



英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  
  •  GPT (言語モデル)のページへのリンク

辞書ショートカット

すべての辞書の索引

「GPT (言語モデル)」の関連用語

1
30% |||||

2
30% |||||


GPT (言語モデル)のお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



GPT (言語モデル)のページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのGPT (言語モデル) (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。

©2024 GRAS Group, Inc.RSS