Энтропи́я (от др.-греч. ἐντροπία — поворот, превращение) — в естественных науках мера беспорядка системы, состоящей из многих элементов. В частности, в статистической физике — мера вероятности осуществления какого-либо макроскопического состояния; в теории информации — мера неопределённости какого-либо опыта (испытания), который может иметь разные исходы, а значит, и количество информации; в исторической науке, для экспликациифеномена альтернативности истории (инвариантности и вариативности исторического процесса).
Я понимаю это слово так - энтропия это совокупность всех вариантов развития события. Энтропия падения монетки - орел, решка или на ребро.