言語モデルとは? わかりやすく解説

Weblio 辞書 > 辞書・百科事典 > デジタル大辞泉 > 言語モデルの意味・解説 

げんご‐モデル【言語モデル】

読み方:げんごもでる

文章話し言葉における、ある単語列が出現する確率分布。各単語出現確率だけでなく、ある単語の後に別の単語出現する確率示したものであり、自然言語処理などで用いられる


言語モデル

読み方げんごモデル
【英】Language model

言語モデルとは、自然言語処理などにおいて、文の品詞統語構造単語単語文書文書などの関係性について定式化したもののことである。

言語モデルは、多く場合統計学的な観点から数式などを用いて確率的に定められる代表的な言語モデルとしては、Nグラムモデル、隠れマルコフモデル最大エントロピーモデル、などがある。

情報と社会のほかの用語一覧
自然言語処理:  bigram  隠れマルコフモデル  形態素解析  言語モデル  機械翻訳  機械学習  コーパス

言語モデル

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/12/29 22:26 UTC 版)

言語モデル(げんごモデル、: language model)は、単語列に対する確率分布を表わすものである[1]


  1. ^ デジタル無限性英語版の特徴
  2. ^ 次元の呪い: 言語モデルがより大規模なテキストで訓練されるにつれて、固有の単語(語彙)の数が指数関数的に増加すること。Heaps' law英語版を参照。
  1. ^ Jurafsky, Dan; Martin, James H. (2021). “N-gram Language Models”. Speech and Language Processing (3rd ed.). https://web.stanford.edu/~jurafsky/slp3/ 2022年5月24日閲覧。 
  2. ^ Kuhn, Roland, and Renato De Mori (1990). "A cache-based natural language model for speech recognition". IEEE transactions on pattern analysis and machine intelligence 12.6: 570–583.
  3. ^ a b Andreas, Jacob, Andreas Vlachos, and Stephen Clark (2013). "Semantic parsing as machine translation". Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers).
  4. ^ Pham, Vu, et al (2014). "Dropout improves recurrent neural networks for handwriting recognition". 14th International Conference on Frontiers in Handwriting Recognition. IEEE.
  5. ^ Htut, Phu Mon, Kyunghyun Cho, and Samuel R. Bowman (2018). "Grammar induction with neural language models: An unusual replication". arXiv:1808.10000.
  6. ^ Ponte, Jay M.; Croft, W. Bruce (1998). A language modeling approach to information retrieval. Proceedings of the 21st ACM SIGIR Conference. Melbourne, Australia: ACM. pp. 275–281. doi:10.1145/290941.291008
  7. ^ Hiemstra, Djoerd (1998). A linguistically motivated probabilistically model of information retrieval. Proceedings of the 2nd European conference on Research and Advanced Technology for Digital Libraries. LNCS, Springer. pp. 569–584. doi:10.1007/3-540-49653-X_34
  8. ^ Manning, Christopher D. (2022). “Human Language Understanding & Reasoning”. Daedalus. https://www.amacad.org/publication/human-language-understanding-reasoning. 
  9. ^ a b Jurafsky, Dan; Martin, James H. (7 January 2023). “N-gram Language Models”. Speech and Language Processing (3rd edition draft ed.). https://web.stanford.edu/~jurafsky/slp3/ed3book_jan72023.pdf 2022年5月24日閲覧。 
  10. ^ The Unreasonable Effectiveness of Recurrent Neural Networks”. 2018年9月1日閲覧。
  11. ^ a b c Bengio, Yoshua (2008). "Neural net language models". Scholarpedia. Vol. 3. p. 3881. Bibcode:2008SchpJ...3.3881B. doi:10.4249/scholarpedia.3881
  12. ^ a b Devlin, Jacob; Chang, Ming-Wei; Lee, Kenton; Toutanova, Kristina (10 October 2018). "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding". arXiv:1810.04805 [cs.CL]。
  13. ^ a b c Mikolov, Tomas; Chen, Kai; Corrado, Greg; Dean, Jeffrey (2013). "Efficient estimation of word representations in vector space". arXiv:1301.3781 [cs.CL]。
  14. ^ a b Mikolov, Tomas; Sutskever, Ilya; Chen, Kai; Corrado irst4=Greg S.; Dean, Jeff (2013). Distributed Representations of Words and Phrases and their Compositionality (PDF). Advances in Neural Information Processing Systems. pp. 3111–3119.
  15. ^ Harris, Derrick (2013年8月16日). “We're on the cusp of deep learning for the masses. You can thank Google later”. Gigaom. 2015年6月22日閲覧。
  16. ^ Lv, Yuanhua; Zhai, ChengXiang (2009). "Positional Language Models for Information Retrieval in" (PDF). Proceedings. 32nd international ACM SIGIR conference on Research and development in information retrieval (SIGIR).
  17. ^ Cambria, Erik; Hussain, Amir (2012-07-28) (英語). Sentic Computing: Techniques, Tools, and Applications. Springer Netherlands. ISBN 978-94-007-5069-2. https://books.google.com/books?id=NrtcLwEACAAJ 
  18. ^ Mocialov, Boris; Hastie, Helen; Turner, Graham (August 2018). “Transfer Learning for British Sign Language Modelling”. Proceedings of the Fifth Workshop on NLP for Similar Languages, Varieties and Dialects (VarDial 2018): 101–110. arXiv:2006.02144. https://www.aclweb.org/anthology/W18-3911/ 2020年3月14日閲覧。. 
  19. ^ Facebook AI. (2021). Textless NLP: Generating expressive speech from raw audio.
  20. ^ Lakhotia, et al. (2021). Generative Spoken Language Modeling from Raw Audio.
  21. ^ Polyak, et al. (2021). Speech Resynthesis from Discrete Disentangled Self-Supervised Representations.
  22. ^ Kharitonov, et al. (2021). Text-Free Prosody-Aware Generative Spoken Language Modeling.
  23. ^ "by having access to the full expressivity of oral language, models should incorporate nuances and intonations" Facebook AI. (2021). Textless NLP: Generating expressive speech from raw audio.
  24. ^ Karlgren, Jussi; Schutze, Hinrich (2015), “Evaluating Learning Language Representations”, International Conference of the Cross-Language Evaluation Forum, Lecture Notes in Computer Science, Springer International Publishing, pp. 254–260, doi:10.1007/978-3-319-64206-2_8, ISBN 9783319642055 
  25. ^ The Corpus of Linguistic Acceptability (CoLA)”. nyu-mll.github.io. 2019年2月25日閲覧。
  26. ^ GLUE Benchmark” (英語). gluebenchmark.com. 2019年2月25日閲覧。
  27. ^ Microsoft Research Paraphrase Corpus” (英語). Microsoft Download Center. 2019年2月25日閲覧。
  28. ^ Aghaebrahimian, Ahmad (2017), “Quora Question Answer Dataset”, Text, Speech, and Dialogue, Lecture Notes in Computer Science, 10415, Springer International Publishing, pp. 66–73, doi:10.1007/978-3-319-64206-2_8, ISBN 9783319642055 
  29. ^ Recognizing Textual Entailment”. 2019年2月24日閲覧。
  30. ^ The Stanford Question Answering Dataset”. rajpurkar.github.io. 2019年2月25日閲覧。
  31. ^ Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank”. nlp.stanford.edu. 2019年2月25日閲覧。
  32. ^ Hendrycks, Dan (2023-03-14), Measuring Massive Multitask Language Understanding, https://github.com/hendrycks/test 2023年3月15日閲覧。 
  33. ^ Hornstein, Norbert; Lasnik, Howard; Patel-Grosz, Pritty; Yang, Charles (2018-01-09) (英語). Syntactic Structures after 60 Years: The Impact of the Chomskyan Revolution in Linguistics. Walter de Gruyter GmbH & Co KG. ISBN 978-1-5015-0692-5. https://books.google.com/books?id=XoxsDwAAQBAJ&dq=adger+%22goldilocks%22&pg=PA153 


「言語モデル」の続きの解説一覧

言語モデル

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/04/17 14:22 UTC 版)

Lucid (プログラミング言語)」の記事における「言語モデル」の解説

Lucidデータ処理の際に要求駆動モデル採用している。Lucid の文は、プロセッサネットワーク定義する方程式と、その間データ流れ通信線として考える事が出来る。変数無限に続く値のストリームであり、関数フィルタ変換器である。反復は 'current' 変数と、'fby' 変数によってシミュレートされストリーム合成を行う事が出来る。 Lucid無限に続くデータの列であるヒストリー代数を基にしている。利用時には、ヒストリー変化し続け変数の値の記録考える事が出来firstnext 等のヒストリー操作は名前から連想するとおり動作するLucid当初動作検証が非常にシンプルあるような、非常に厳格数学的に純粋な単一代入言語として考えられていた。しかしながらデータフロー解釈は非常に重要であり、Lucid発展大きく影響及ぼした

※この「言語モデル」の解説は、「Lucid (プログラミング言語)」の解説の一部です。
「言語モデル」を含む「Lucid (プログラミング言語)」の記事については、「Lucid (プログラミング言語)」の概要を参照ください。

ウィキペディア小見出し辞書の「言語モデル」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「言語モデル」の関連用語

言語モデルのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



言語モデルのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
デジタル大辞泉デジタル大辞泉
(C)Shogakukan Inc.
株式会社 小学館
IT用語辞典バイナリIT用語辞典バイナリ
Copyright © 2005-2024 Weblio 辞書 IT用語辞典バイナリさくいん。 この記事は、IT用語辞典バイナリ言語モデルの記事を利用しております。
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアの言語モデル (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、WikipediaのLucid (プログラミング言語) (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。

©2024 GRAS Group, Inc.RSS