エントロピーとは? わかりやすく解説

Weblio 辞書 > 同じ種類の言葉 > 自然科学 > 物理学 > 物理量 > エントロピーの意味・解説 

エントロピー

エントロピーとは、エントロピーの意味

エントロピーとは、不可逆性不規則性を含む、特殊な状態を表すときに用いられる概念である。簡単にいうと、「混沌」を意味する。もともとは熱力学において、エントロピーという言葉使われ始めたすべての熱をともなう物体は、「高い方から低い方へと流れる」という方向性持っている。しかし、逆に、低い方から高い方に流れない。逆の現象起こらないので、「エントロピーが発生している」と表現することとなる。ただ、統計力学情報理論におけるエントロピーは、熱力学とは微妙に異な意味合い用いられている場面が多い。

統計力学では、所得格差指し示すときにエントロピーが登場する格差状態のない経済「0」となり、格差無秩序に広がっている場合は「エントロピーが大きい」と表現される一方情報理論分野で、エントロピーは物事可能性を示す指標として認識されてきた。可能性低かった出来事が起こると、「情報エントロピー大きくなる」などといわれる

なお、エントロピーと似た言葉に「エンタルピー」がある。エントロピーとエンタルピー違い挙げるとすれば、エントロピーはあくまで、物事方向性についての概念だという点である。そして、「どれだけ外部対し活発に働きかけるか」という概念エンタルピーとなる。ある物体の熱が冷たい物体に伝わるとき、「エンタルピーが高い」と表現される。ただ、熱の伝わり方が分散していれば、「エントロピーが発生している」といわれる

熱力学におけるエントロピー

熱力学において、熱は必ず温度の高いものから低いものへと伝わっていく。たとえば、熱くなったに氷を乗せれば、氷が溶けるのは自明の理である。その逆はないので、熱の移動は「不可逆性をともなう現象」と定義される。この不可逆性がどれだけ強いのかを、数値で表すために発見され概念がエントロピーである。エントロピーは熱と内部エネルギー行われる仕事関数で表す。エントロピーが高くなればなるほど、「不可逆性が強い」ということである。ちなみに可逆性のある現象については、エントロピーが「0」とされる。エントロピーがマイナスになることはない。

エントロピー増大の法則

熱力学頻繁に用いられる理論が、「エントロピー増大の法則」である。エントロピーは、物質存在し続け限り増大し続ける。外部から何らかの働きかけしてやらない限り、エントロピーが減少することはない。言い換えれば物事秩序から始まり自然に無秩序へと向かう可能性はあっても、さらなる秩序目指しはしない前述の、と氷の関係でいえば、熱い鉄はずっと氷を溶かし続ける。仮に、氷が溶けなくなったとすれば誰かが意図的に冷やした場合だけである。現象放置している限りと氷の間にあるエントロピーは増大する

ちなみに溶けた氷は蒸気になってしまっているので、そこから再び氷の形を取り戻するのは難しい。この状態で、熱力学基づいてエントロピーを計算すれば数値高くなる一方お湯になった程度現象では、エントロピーは比較的低いと考えられる

統計力学におけるエントロピー

統計力学分野でも、熱力学応用エントロピー増大の法則用いられてきた。そもそも統計力学とは、ある現象における法則性有無解明しようという学問である。ただ、現象によっては明確な法則性含んでおらず、混沌にしか見えないことも少なくないこうした混沌性、不規則性数値で表すために応用されたのが、熱力学のエントロピーである。そして、統計力学のエントロピーと大きく関係しているのが「小正準集団」である。統計データグラフにしたとき、関知しにくいほど小さい集団が小正準集団である。小正準集団の多いグラフほど、その混沌性は高い。

そして小正準集団状態数から、はっきりと確認できる力学潜在値を導き出す方法が「ボルツマンの公式」となる。原則的に小正準集団多くなれば、それだけエントロピーの値も大きくなる考えてよい。

また、統計力学にも「エントロピー増大の法則」は存在する統計力学でもエントロピー増大の法則応用できる証明する場合、よく使われるのが「気体の例」である。箱の中に気体入れ真ん中を板で仕切ったとする。このとき、右半分と左半分気体入っているのは明確である。すなわち、エントロピーの値も低くなる。しかし、板を取り外せば、「まだ右の気体と左の気体変わらないと言い切れなくなるのでエントロピーの値は高い。この例を考えれば統計力学においても、現象放置したほうがエントロピーは増大しやすいといえる

情報理論におけるエントロピー

情報理論におけるエントロピーは、確率変数含まれる情報量を表す指標であり、クロード・シャノンによって発見された。確率変数さまざまな数値になれる状態だと、それだけ情報量広がり見せる。つまり、その場合の情報量確率変数含まれている不規則性定義するといえる。ただし、シャノン研究では、熱力学としてのエントロピー理論情報理論分野でも完全に応用できるのか、不透明なままだった。この点は後世の研究者たちの手によって解決されていくこととなる。

情報理論とエントロピーの相性が非常によかったのは、「特殊な現象には大きな力が働いている」という観点共通していたからである。たとえば、大量データコンピュータ処理しようとすれば、当然、かかる時間遅くなる少量データ処理するケースの方が速い。すなわち、情報量が多いときほど、混沌性が発生しやすいのだといえるこうした現象数値化していくために、エントロピーは用いられてきた。

おおまかな解釈として、情報理論のエントロピーは「分からない部分大きさ」を示している。分からない部分が多いほど、情報量大きくなる可能性秘めている一方分からない部分少な情報量は、大きくなる可能性切り捨てられしまっている。なお、ある出来事自体含まれている情報量を「自己エントロピー」と呼ぶのに対し平均情報量は単に「エントロピー」といわれることが多い。

entropy

別表記:エントロピー

「entropy」の意味・「entropy」とは

「entropy」は、物理学情報理論において頻繁に使用される英単語である。物理学における「entropy」は、熱力学の第二法則関連し物体システムエネルギーがどれだけ散乱または無秩序であるかを示す指標である。一方情報理論における「entropy」は、情報の量を測定する指標であり、情報がどれだけ予測不可能であるか、つまり不確定性がどれだけあるかを示す。

「entropy」の発音・読み方

「entropy」の発音は、IPA表記では /ˈɛntrəpi/ となる。IPAカタカナ読みでは「エントラピ」となる。日本人発音するカタカナ英語では「エントロピー」と読む。

「entropy」の定義を英語で解説

「entropy」は、物理学においては「A thermodynamic quantity representing the unavailability of a system's thermal energy for conversion into mechanical work」、情報理論においては「A measure of the uncertainty of a random variable」などと定義される。これらの定義は、それぞれシステム熱エネルギー機械的仕事変換できない程度を表す熱力学的量」、「ランダム変数不確定性測る指標」を意味する

「entropy」の類語

「entropy」の類語としては、「disorder」、「randomness」、「uncertainty」などがある。「disorder」は無秩序混乱を、「randomness」はランダム性偶然性を、「uncertainty」は不確定性それぞれ表す。

「entropy」に関連する用語・表現

「entropy」に関連する用語としては、「thermodynamics」(熱力学)、「information theory」(情報理論)、「random variable」(ランダム変数)などがある。これらの用語は、「entropy」が物理学情報理論の中で重要な役割果たしていることを示している。

「entropy」の例文

1. The entropy of the system increases when heat is added.(システムに熱が加えられると、エントロピーは増加する。)
2. In information theory, entropy measures the uncertainty of a random variable.(情報理論において、エントロピーはランダム変数不確定性測る。)
3. The concept of entropy is central to the second law of thermodynamics.(エントロピーの概念は、熱力学の第二法則中心である。)
4. The entropy of the universe is constantly increasing.(宇宙のエントロピーは常に増加している。)
5. Entropy is often associated with the amount of disorder in a system.(エントロピーはしばしば、システム内の無秩序の量と関連付けられる。)
6. The entropy of a perfect crystal at absolute zero is zero.(絶対零度完全結晶のエントロピーはゼロである。)
7. In the context of data compression, entropy is a measure of the amount of information that is missing.(データ圧縮文脈では、エントロピーは欠けている情報の量を測る指標である。)
8. The entropy of a closed system never decreases.(閉じたシステムのエントロピーは決し減少しない。)
9. The entropy of a system is a measure of its thermal stability.(システムのエントロピーは、その熱的安定性測る指標である。)
10. The entropy of an isolated system always tends to a maximum.(孤立したシステムのエントロピーは常に最大向かって傾く。)

エントロピー

英語:entropy

エントロピーとは、物理学情報理論における重要な概念である。物理学におけるエントロピーは、熱力学の第二法則に基づき物質乱雑さや不確定性を表す指標とされる一方情報理論におけるエントロピーは、情報不確定性予測困難さ数値化する手段として用いられる物理学視点から見ると、エントロピーはエネルギー均等に分布する状態を示す。例えば、ガス分子容器内で均等に分布する状態は高エントロピー(乱雑さが高い)状態とされる。情報理論では、エントロピーは情報の量を表す。情報一様に分布している(すべての事象等し確率で起こる)場合、エントロピーは最大となる。 これらの概念は、物理学情報理論だけでなく、化学生物学統計学など、多く学問領域応用されている。エントロピーの理解は、自然現象理解予測情報効率的な伝達や処理に対す理解を深めるために有用である。

エントロピー【entropy】

読み方:えんとろぴー

変化の意のギリシャ語tropēから》

熱力学において物質の状態を表す量の一。等温可逆的な変化で、ある物質系熱量吸収したとき、エントロピーの増加吸収熱量を温度割った値に等しい。熱的に外部から孤立した系では、内部変化はつねにエントロピーが増す方向に起こる。1865年クラウジウス導入。系の秩序関連する度合いで、エントロピーが高くなることは乱雑さが増すことを示す。

情報理論で、ある情報得られる確率をもとに、情報がどれだけ欠如しているかの状態を示す量。情報不確定さの度合い

「エントロピー」に似た言葉

エントロピー entropy


エントロピー

英訳・(英)同義/類義語:entropy

熱力学の用語で、ある系の持つ乱雑さの程度を表す。

エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2024/05/25 08:44 UTC 版)

エントロピー: entropy)は、熱力学および統計力学において定義される示量性状態量である。熱力学において断熱条件下での不可逆性を表す指標として導入され、統計力学において微視的な「乱雑さ」[注 1]を表す物理量という意味付けがなされた。統計力学での結果から、系から得られる情報に関係があることが指摘され、情報理論にも応用されるようになった。物理学者エドウィン・ジェインズ英語版のようにむしろ物理学におけるエントロピーを情報理論の一応用とみなすべきだと主張する者[誰?]もいる。


出典

  1. ^ Λεξικό της κοινής νεοελληνικής”. www.greek-language.gr. 2024年5月25日閲覧。
  2. ^ 斎藤秀三郎『新増補版 英和中辞典』東京岩波書店 1936年 391頁
  3. ^ 原文 "he succeeded in coining a word that meant the same thing to everybody: nothing".
  4. ^ Cooper, Leon N. (1968). An Introduction to the Meaning and Structure of Physics. Harper. 331頁
  5. ^ 田崎 & 田崎 2010, 『RikaTan』10-12月号.
  6. ^ IUPAC Gold Book
  7. ^ 出典は情報量#歴史を参照
  8. ^ フェルミ 1973.
  9. ^ 佐々 2000.
  10. ^ 田崎 2000.
  11. ^ 清水 2007.
  12. ^ Clausius 1865.
  13. ^ 田崎 2000, pp. 16, 107–110, 1-3 本書の内容について; 6-4 エントロピーと熱.
  14. ^ 田崎 2000, p. 16, 1-3 本書の内容について.
  15. ^ Lieb & Yngvason1999.
  16. ^ リーブ & イングヴァソン 2001, pp. 4–12, 『パリティ』Vol. 16, No. 08.
  17. ^ 佐々 2000田崎 2000清水 2007などを参照。

注釈

  1. ^ 「でたらめさ」と表現されることもある。ここでいう「でたらめ」とは、矛盾や誤りを含んでいたり、的外れであるという意味ではなく、相関がなくランダムであるという意味である。
  2. ^ ここでいう「微視的状態が確定する」ということは、あらゆる物理量の値が確定するという意味ではなく、なんらかの固有状態に定まるという意味である。従って量子力学的な不確定性は残る。
  3. ^ カルノーの定理においては一般には熱効率の上限は ηmax = f(T1, T2) の形で証明されている。この表式が成り立つように、熱力学温度絶対温度T を定義する。たとえば、セルシウス度ファーレンハイト度を使った場合には、熱効率の式はやや複雑な形になる。
  4. ^ a b d'は状態量でない量の微小量ないし微小変化量を表す。文献によってしばしば同様の意味でδが用いられる。
  5. ^ 古典系の場合は状態を可算個として扱えない。したがって、例えば自由度fの古典系であれば、位相空間上の一点をΓ = (Q1, Q2, …, Qf, P1, P2, …, Pf)と表し、ここに一様な確率測度dΓ/hfを導入する(ここでP, Q正準変数hプランク定数)。こうすることにより、積分

    でエントロピーを定義できる。

  6. ^ ボルツマン定数を1とする単位系を取れば、エントロピーは情報理論におけるエントロピー(自然対数を用いたもの)と完全に一致し、無次元量となる。簡便なので、理論計算などではこの単位系が用いられることも多い。なお、この単位系では温度は独立な次元を持たず、エネルギーと同じ次元となる。
  7. ^ 量子系では厳密には、エネルギーが量子化されているため、ほとんど至るところEにおいてE = Eiは満たされない。そのため、その間に十分多くのエネルギー固有状態が入るエネルギー間隔ΔEを定義し、条件を|EEi|< ΔEと緩めることにする。



エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/08/14 02:47 UTC 版)

汎函数微分」の記事における「エントロピー」の解説

離散確率変数のエントロピーは確率密度函数引数とする汎函数 H [ p ( x ) ] = − ∑ x p ( x ) log ⁡ p ( x ) {\displaystyle {\begin{aligned}H[p(x)]=-\sum _{x}p(x)\log p(x)\end{aligned}}} であり、従って ⟨ δ H δ p , ϕ ⟩ = ∑ x δ H [ p ( x ) ] δ p ( x ′ ) ϕ ( x ′ ) = d d ϵ H [ p ( x ) + ϵ ϕ ( x ) ] | ϵ = 0 = − d d ε ∑ x [ p ( x ) + ε ϕ ( x ) ] log ⁡ [ p ( x ) + ε ϕ ( x ) ] | ε = 0 = − ∑ x [ 1 + log ⁡ p ( x ) ] ϕ ( x ) = ⟨ − [ 1 + log ⁡ p ( x ) ] , ϕ ⟩ . {\displaystyle {\begin{aligned}\left\langle {\frac {\delta H}{\delta p}},\phi \right\rangle &=\sum _{x}{\frac {\delta H[p(x)]}{\delta p(x')}}\,\phi (x')\\&=\left.{\frac {d}{d\epsilon }}H[p(x)+\epsilon \phi (x)]\right|_{\epsilon =0}\\&=-{\frac {d}{d\varepsilon }}\left.\sum _{x}[p(x)+\varepsilon \phi (x)]\log[p(x)+\varepsilon \phi (x)]\right|_{\varepsilon =0}\\&=\displaystyle -\sum _{x}[1+\log p(x)]\phi (x)\\&=\left\langle -[1+\log p(x)],\phi \right\rangle .\end{aligned}}} 即ち、 δ H δ p = − [ 1 + log ⁡ p ( x ) ] {\displaystyle {\frac {\delta H}{\delta p}}=-[1+\log p(x)]} が成り立つ。

※この「エントロピー」の解説は、「汎函数微分」の解説の一部です。
「エントロピー」を含む「汎函数微分」の記事については、「汎函数微分」の概要を参照ください。


エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2021/10/17 01:47 UTC 版)

等温過程」の記事における「エントロピー」の解説

エントロピーの変化 ΔS は F = U - TS の関係を使って求める。 Δ S = Δ U − Δ F T ex {\displaystyle \Delta S={\frac {\Delta U-\Delta F}{T_{\text{ex}}}}} あるいは G = H - TS の関係を使って求める。 Δ S = Δ H − Δ G T ex {\displaystyle \Delta S={\frac {\Delta H-\Delta G}{T_{\text{ex}}}}} マクスウェルの関係式使って求めることもできる。 Δ S = ∫ state A state B d S = ∫ V A V B ( ∂ S ∂ V ) T = T ex d V = ∫ V A V B ( ∂ P ∂ T ) V d V {\displaystyle \Delta S=\int _{\text{state A}}^{\text{state B}}dS=\int _{V_{\text{A}}}^{V_{\text{B}}}\left({\frac {\partial S}{\partial V}}\right)_{T=T_{\text{ex}}}dV=\int _{V_{\text{A}}}^{V_{\text{B}}}\left({\frac {\partial P}{\partial T}}\right)_{V}dV} Δ S = ∫ state A state B d S = ∫ P A P B ( ∂ S ∂ P ) T = T ex d P = − ∫ P A P B ( ∂ V ∂ T ) P d P {\displaystyle \Delta S=\int _{\text{state A}}^{\text{state B}}dS=\int _{P_{\text{A}}}^{P_{\text{B}}}\left({\frac {\partial S}{\partial P}}\right)_{T=T_{\text{ex}}}dP=-\int _{P_{\text{A}}}^{P_{\text{B}}}\left({\frac {\partial V}{\partial T}}\right)_{P}dP}

※この「エントロピー」の解説は、「等温過程」の解説の一部です。
「エントロピー」を含む「等温過程」の記事については、「等温過程」の概要を参照ください。


エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/23 01:21 UTC 版)

ルドルフ・クラウジウス」の記事における「エントロピー」の解説

クラウジウス1865年論文で、Sを d S = d Q T {\displaystyle dS={\frac {dQ}{T}}} と定義したクラウジウスは、カルノーサイクル研究をする中で、このdQ/Tと言う量を積分すると、カルノーサイクルを1周した際、この積分総和ゼロに成る事に気が付いた。そこで、クラウジウスは、このdQ/Tと言う量に注目したであったクラウジウスは、上式の様に、このdQ/TをdSと言う新しい量として表し、このdS積分した量であるSをエントロピーと呼んだ。そして、この新しい量Sの変化dSが、熱現象方向決定する事に気が付いたであった重要な事は、クラウジウスが、原子論関心持ちつつも、原子実在仮定しい段階でエントロピーと言う関数存在注目した事である。即ち、クラウジウスがこのエントロピーと言う関数注目発見した段階において、エントロピーは、原子実在性を全く前提としておらず、啓蒙書などで良く使われるデタラメさの尺度と言った意味は全く無かった事を忘れてならないクラウジウスカルノーサイクル検討から発見した関数エントロピーは、この時点では、あくまでも熱機関可逆性指標だったのである。 彼が発表したエントロピーに関する考えは、当時多く科学者より反論された。しかし、ジェームズ・クラーク・マクスウェルによって強く支持され、更に、ボルツマンによって、原子空間中での分布仕方を表す量、即ち、「デタラメさの尺度」である事が証明されたのであったボルツマンの項を参照の事) クラウジウスは、熱力学第一第二法則を以下の表現表した宇宙エネルギー一定である 宇宙のエントロピーは最大値に向かう

※この「エントロピー」の解説は、「ルドルフ・クラウジウス」の解説の一部です。
「エントロピー」を含む「ルドルフ・クラウジウス」の記事については、「ルドルフ・クラウジウス」の概要を参照ください。


エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/14 14:38 UTC 版)

情報理論」の記事における「エントロピー」の解説

ベルヌーイ試行のエントロピーを成功確率関数 H b ( p ) {\displaystyle H_{\mbox{b}}(p)} として表したもの。2値エントロピー関数呼ばれる。エントロピーは1ビット成功確率が1/2であるときに最大となる。例え細工のないコイントスなど。 離散確率変数 M {\displaystyle M} のエントロピー H {\displaystyle H} とは、 M {\displaystyle M} の値の不確かさ尺度である。ここでの「ビット」の定義は重要である。例えば、通常の感覚(0 と 1)で 1000 ビット転送するとしよう事前にそのビット群の内容(0 と 1 の送信順序)がわかっている場合論理的に通信によって得られる情報ゼロである。逆に個々ビットが 0 なのか 1 なのか五分五分確率であった場合(かつビット間に相互の関連存在しない場合)、1000 ビット得られる情報最大となる。これらの中間で、情報定量化次のように表される。 M {\displaystyle \mathbb {M} \,} を確率変数 M {\displaystyle M} の発するメッセージ m {\displaystyle m} の集合とし、 p ( m ) = P r ( M = m ) {\displaystyle p(m)=Pr(M=m)} としたとき、 M {\displaystyle M} のエントロピーは次のうになる単位ビット)。 H ( M ) = E M [ − log ⁡ p ( m ) ] = − ∑ m ∈ M p ( m ) log ⁡ p ( m ) {\displaystyle H(M)=\mathbb {E} _{M}[-\log p(m)]=-\sum _{m\in \mathbb {M} }p(m)\log p(m)} エントロピーの重要な特徴として、メッセージ空間内のメッセージ全て同じ確率ありうる場合に(つまり最も予測難し場合)、エントロピー値が最大の H ( M ) = log ⁡ | M | {\displaystyle H(M)=\log |\mathbb {M} |} となる。 関数 H を確率分布で表すと次のうになる: H ( p ) = − ∑ i = 1 k p ( i ) log ⁡ p ( i ) , {\displaystyle H(p)=-\sum _{i=1}^{k}p(i)\log p(i),} ここで ∑ i = 1 k p ( i ) = 1 {\displaystyle \sum _{i=1}^{k}p(i)=1} これの重要かつ特殊な場合2値エントロピー関数呼び次のうになる: H b ( p ) = H ( p , 1 − p ) = − p log ⁡ p − ( 1 − p ) log ⁡ ( 1 − p ) {\displaystyle H_{\mbox{b}}(p)=H(p,1-p)=-p\log p-(1-p)\log(1-p)\,} 2つ離散確率変数 X {\displaystyle X} と Y {\displaystyle Y} の結合エントロピーとは、単にその組 ( X , Y ) {\displaystyle (X,Y)} のエントロピーである。例えば、 ( X , Y ) {\displaystyle (X,Y)} がチェスの駒位置を表すとする。 X {\displaystyle X} が行、 Y {\displaystyle Y} が列を表すとすると、その結合エントロピーとは、駒の位置のエントロピーを表す。数学的に次のうになる。 H ( X , Y ) = E X , Y [ − log ⁡ p ( x , y ) ] = − ∑ x , y p ( x , y ) log ⁡ p ( x , y ) {\displaystyle H(X,Y)=\mathbb {E} _{X,Y}[-\log p(x,y)]=-\sum _{x,y}p(x,y)\log p(x,y)\,} X {\displaystyle X} と Y {\displaystyle Y} が独立なら、結合エントロピー単純に個々のエントロピーの総和となる。類似の概念として交差エントロピーがあるが、違うものであるY = y {\displaystyle Y=y} のときの X {\displaystyle X} の条件付きエントロピーとは、 Y = y {\displaystyle Y=y} が既知であるときの X {\displaystyle X} のエントロピーである。前述の例で言えば、列が決まっているときの駒の行位置のエントロピーとなる。 Y = y {\displaystyle Y=y} のときの X {\displaystyle X} の条件付きエントロピーは次のうになる: H ( X | y ) = E X | Y [ − log ⁡ p ( x | y ) ] = − ∑ x ∈ X p ( x | y ) log ⁡ p ( x | y ) {\displaystyle H(X|y)=\mathbb {E} _{X|Y}[-\log p(x|y)]=-\sum _{x\in X}p(x|y)\log p(x|y)} ここで p ( x | y ) {\displaystyle p(x|y)} は、ある y {\displaystyle y} に関する x {\displaystyle x} の条件付き確率である。 確率変数 Y {\displaystyle Y} における X {\displaystyle X} の条件付きエントロピーとは、 Y {\displaystyle Y} についての平均条件付きエントロピーであり、次のうになる: H ( X | Y ) = E Y { H ( X | y ) } = − ∑ y ∈ Y p ( y ) ∑ x ∈ X p ( x | y ) log ⁡ p ( x | y ) {\displaystyle H(X|Y)=\mathbb {E} _{Y}\{H(X|y)\}=-\sum _{y\in Y}p(y)\sum _{x\in X}p(x|y)\log p(x|y)} = − ∑ x , y p ( x , y ) log ⁡ p ( x , y ) p ( y ) {\displaystyle =-\sum _{x,y}p(x,y)\log {\frac {p(x,y)}{p(y)}}} = ∑ x , y p ( x , y ) log ⁡ p ( y ) p ( x , y ) {\displaystyle =\sum _{x,y}p(x,y)\log {\frac {p(y)}{p(x,y)}}} これを Y {\displaystyle Y} に関する X {\displaystyle X} のあいまい度とも呼ぶ。このように条件付きエントロピーには、確率変数についての定義と、それが特定の値場合の定義があるので、混同しないこと。これらのエントロピーには次の関係が成り立つ。 H ( X | Y ) = H ( X , Y ) − H ( Y ) {\displaystyle H(X|Y)=H(X,Y)-H(Y)\,}

※この「エントロピー」の解説は、「情報理論」の解説の一部です。
「エントロピー」を含む「情報理論」の記事については、「情報理論」の概要を参照ください。


エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/02/19 06:14 UTC 版)

理想気体」の記事における「エントロピー」の解説

狭義の理想気体のエントロピー S は S = n R ln ⁡ α T c V n {\displaystyle S=nR\ln \alpha {\frac {T^{c}V}{n}}} となる。ここで α は物質固有の定数である。狭義の理想気体のエントロピーの形は、熱力学第三法則満たさない半理想気体のエントロピー S は S = n R ( ∫ T 0 T C V , m ( T ′ ) R Td T ′ + ln ⁡ α 0 V n ) {\displaystyle S=nR\left(\int _{T_{0}}^{T}{\frac {C_{V,{\text{m}}}(T')}{RT'}}\,\mathrm {d} T'+\ln \alpha _{0}{\frac {V}{n}}\right)} となる。ここで α0 は物質固有の定数である。半理想気体CV, m が 3R/2 を下回ることはないので、半理想気体のエントロピーの形もまた、熱力学第三法則満たさない。 準静的断熱過程においては、エントロピーが一定となる。このとき T c V = const. {\displaystyle T^{c}V={\text{const.}}} p V γ = const. {\displaystyle pV^{\gamma }={\text{const.}}} の関係がある。これらはポアソンの法則呼ばれる狭義の理想気体では、ポアソンの法則厳密に成り立つ。半理想気体では、ポアソンの法則近似的に成り立つ。

※この「エントロピー」の解説は、「理想気体」の解説の一部です。
「エントロピー」を含む「理想気体」の記事については、「理想気体」の概要を参照ください。


エントロピー

出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2022/06/16 07:23 UTC 版)

「熱」の記事における「エントロピー」の解説

詳細は「エントロピー」を参照 1856年ドイツ物理学者ルドルフ・クラウジウス熱力学第二法則定義し、そこで熱 Q と温度 T から次のような値を考えたQ T {\displaystyle {}{\frac {Q}{T}}} そして1865年、この比をエントロピーと名付け、S と表記するようにした。 Δ S = Q T {\displaystyle \Delta S={\frac {Q}{T}}} 従って、熱の不完全微分 δQ は TdS という完全微分定義されることになる。 δ Q = T d S {\displaystyle \delta Q=TdS\,} 言い換えれば、エントロピー関数 S は熱力学的系境界を通る熱流定量化測定容易にする。

※この「エントロピー」の解説は、「熱」の解説の一部です。
「エントロピー」を含む「熱」の記事については、「熱」の概要を参照ください。

ウィキペディア小見出し辞書の「エントロピー」の項目はプログラムで機械的に意味や本文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。 お問い合わせ

「エントロピー」の例文・使い方・用例・文例

Weblio日本語例文用例辞書はプログラムで機械的に例文を生成しているため、不適切な項目が含まれていることもあります。ご了承くださいませ。



エントロピーと同じ種類の言葉


英和和英テキスト翻訳>> Weblio翻訳
英語⇒日本語日本語⇒英語
  

辞書ショートカット

すべての辞書の索引

「エントロピー」の関連用語

エントロピーのお隣キーワード
検索ランキング

   

英語⇒日本語
日本語⇒英語
   



エントロピーのページの著作権
Weblio 辞書 情報提供元は 参加元一覧 にて確認できます。

   
新語時事用語辞典新語時事用語辞典
Copyright © 2024 新語時事用語辞典 All Rights Reserved.
実用日本語表現辞典実用日本語表現辞典
Copyright © 2024実用日本語表現辞典 All Rights Reserved.
デジタル大辞泉デジタル大辞泉
(C)Shogakukan Inc.
株式会社 小学館
ダイキン工業ダイキン工業
Copyright (C) 2024 DAIKIN INDUSTRIES, ltd. All Rights Reserved.
JabionJabion
Copyright (C) 2024 NII,NIG,TUS. All Rights Reserved.
ウィキペディアウィキペディア
All text is available under the terms of the GNU Free Documentation License.
この記事は、ウィキペディアのエントロピー (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。 Weblio辞書に掲載されているウィキペディアの記事も、全てGNU Free Documentation Licenseの元に提供されております。
ウィキペディアウィキペディア
Text is available under GNU Free Documentation License (GFDL).
Weblio辞書に掲載されている「ウィキペディア小見出し辞書」の記事は、Wikipediaの汎函数微分 (改訂履歴)、等温過程 (改訂履歴)、ルドルフ・クラウジウス (改訂履歴)、情報理論 (改訂履歴)、理想気体 (改訂履歴)、熱 (改訂履歴)の記事を複製、再配布したものにあたり、GNU Free Documentation Licenseというライセンスの下で提供されています。
Tanaka Corpusのコンテンツは、特に明示されている場合を除いて、次のライセンスに従います:
 Creative Commons Attribution (CC-BY) 2.0 France.
この対訳データはCreative Commons Attribution 3.0 Unportedでライセンスされています。
浜島書店 Catch a Wave
Copyright © 1995-2024 Hamajima Shoten, Publishers. All rights reserved.
株式会社ベネッセコーポレーション株式会社ベネッセコーポレーション
Copyright © Benesse Holdings, Inc. All rights reserved.
研究社研究社
Copyright (c) 1995-2024 Kenkyusha Co., Ltd. All rights reserved.
日本語WordNet日本語WordNet
日本語ワードネット1.1版 (C) 情報通信研究機構, 2009-2010 License All rights reserved.
WordNet 3.0 Copyright 2006 by Princeton University. All rights reserved. License
日外アソシエーツ株式会社日外アソシエーツ株式会社
Copyright (C) 1994- Nichigai Associates, Inc., All rights reserved.
「斎藤和英大辞典」斎藤秀三郎著、日外アソシエーツ辞書編集部編
EDRDGEDRDG
This page uses the JMdict dictionary files. These files are the property of the Electronic Dictionary Research and Development Group, and are used in conformance with the Group's licence.

©2024 GRAS Group, Inc.RSS