Рубрика: Ֆիզիկա

Էնտրոպիա

Բնական գիտություններում էնտրոպիան բազմաթիվ էլեմենտներից բաղկացած համակարգի անկարգավորվածության չափն է։ Ինֆորմացիայի տեսությունում՝ անորոշության չափը որևէ փորձում, որը կարող է տարբեր ելքեր, նաև տարբեր տեղեկության քանակ ունենալ, ինֆորմատիկայում՝ տեղեկությունների ոչ լրիվության, անորոշության աստիճանը։

Էնտրոպիայի հասկացությունը 1865 թ. առաջին անգամ կիրառել է Ռուդոլֆ Կլաուզիուսը թերմոդինամիկայում՝ էներգիայի ցրման անդարձելիության չափի որոշման համար։ Էնտրոպիան թերմոդինամիկական վիճակի ֆունկցիա է, դարձելի պրոցեսի դեպքում մնում է հաստատուն, մինչդեռ ոչ դարձելի պրոցեսների դեպքում նրա փոփոխությունը միշտ դրական է, այսինքն՝ աճում է։

Ընդհանուր դեպքում

dS = \frac{\delta Q}{T}

Մասնավոր դեպք (հաստատուն ջերմաստիճանում ընթացող պրոցես)

{\displaystyle \Delta S={\frac {\Delta Q}{T}}}

Էնտրոպիայի ընկալումը որպես չկարգավորվածության չափ

Էնտրոպիա-ն կարելի է համարել համակարգի չկարգավորվածության չափ։ Որոշակի իմաստով դա ճիշտ է, քանի որ մենք մտածում ենք «կարգավորված» համակարգի մասին որպես կոնֆիգուրացնելու քիչ հնարավորություն ունեցող համակարգի, իսկ «չկարգավորված» (քաոսային) համակարգը մեզ համար շատ մեծ թվով հնարավոր վիճակներ ունեցող համակարգն է։

Օրինակ, դիտարկենք իդեալական գազի մոլեկուլների բաշխումը։ Իդեալական գազի դեպքում ամենահավանական վիճակը, որը համապատասխանում է էնտրոպիայի մաքսիմումին, մոլեկուլների հավասարաչափ բաշխումն է։ Ընդ որում դիտվում է նաև առավելագույն «չկարգավորվածություն», քանի որ կոնֆիգուրացնելու հնարավորությունները առավելագույնն են։