Entropi, en basit tanımıyla bir sistemdeki düzensizliğin veya rastgeleliğin ölçüsüdür. Termodinamik, istatistiksel mekanik ve bilgi teorisi gibi birçok alanda temel bir kavramdır. Gündelik hayatta da sıkça karşılaştığımız olayları anlamlandırmamıza yardımcı olur.
Termodinamikte entropi, bir sistemin enerjisinin işe dönüştürülemeyen kısmını ifade eder. Bir sistemde ne kadar çok düzensizlik varsa, entropi o kadar yüksektir. İdeal bir durum olan tersinir (reversible) süreçlerde entropi değişimi sıfırdır. Ancak gerçek hayattaki süreçler genellikle tersinmezdir (irreversible) ve bu süreçlerde toplam entropi her zaman artar. Bu durum, termodinamiğin ikinci yasası olarak bilinir.
İstatistiksel mekanikte entropi, bir sistemin olası mikro durumlarının sayısı ile ilişkilidir. Mikro durum, sistemin atomlarının veya moleküllerinin belirli bir andaki konumları ve hızları gibi detaylı bilgilerini içerir. Bir sistemin entropisi ne kadar yüksekse, o kadar çok sayıda olası mikro durumu vardır.
Ludwig Boltzmann, entropiyi mikro durumların sayısı (Ω) ile ilişkilendiren ünlü bir denklem geliştirmiştir: S = k * ln(Ω). Burada S entropiyi, k Boltzmann sabitini ve ln doğal logaritmayı temsil eder.
Bilgi teorisinde entropi, bir bilgi kaynağının belirsizliğini veya rastgeleliğini ölçer. Claude Shannon tarafından geliştirilen bu kavram, bir mesajın ne kadar bilgi taşıdığını belirlemeye yardımcı olur. Yüksek entropiye sahip bir mesaj, daha az tahmin edilebilir ve dolayısıyla daha fazla bilgi içerir.
Entropi, sadece bilimsel bir kavram olmanın ötesinde, günlük yaşamımızda da gözlemleyebileceğimiz bir olgudur.
Sonuç olarak, entropi kavramı evrenin temel yasalarından birini anlamamıza yardımcı olur ve birçok farklı alanda önemli uygulamalara sahiptir.