自己相互情報量
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/05 23:45 UTC 版)
自己相互情報量(じこそうごじょうほうりょう、英語: pointwise mutual information、略称: PMI)は、統計学、確率論、情報理論における関連性の尺度である[1]。全ての可能な事象の平均を取る相互情報量(mutual information、MI)とは対照的に、単一の事象を指す。
- ^ Kenneth Ward Church and Patrick Hanks (March 1990). “Word association norms, mutual information, and lexicography”. Comput. Linguist. 16 (1): 22–29 .
- ^ Bouma (2009年). “Normalized (Pointwise) Mutual Information in Collocation Extraction”. Proceedings of the Biennial GSCL Conference. 2022年5月2日閲覧。
- ^ Francois Role, Moahmed Nadif. Handling the Impact of Low frequency Events on Co-occurrence-based Measures of Word Similarity:A Case Study of Pointwise Mutual Information. Proceedings of KDIR 2011 : KDIR- International Conference on Knowledge Discovery and Information Retrieval, Paris, October 26-29 2011
- ^ Paul L. Williams. INFORMATION DYNAMICS: ITS THEORY AND APPLICATION TO EMBODIED COGNITIVE SYSTEMS
- ^ Čmelo, I.; Voršilák, M.; Svozil, D. (2021-01-10). “Profiling and analysis of chemical compounds using pointwise mutual information”. Journal of Cheminformatics 13 (1): 3. doi:10.1186/s13321-020-00483-y. ISSN 1758-2946 .
- 自己相互情報量のページへのリンク