2023-9 trading log

18
Entropy is a measure of the amount of disorder or randomness in a system. In thermodynamics, it is a measure of the unavailability of a system's thermal energy for conversion into mechanical work, often interpreted as the degree of disorder or randomness in the system. In information theory, entropy is a measure of the uncertainty or randomness of information content in a message or signal. The greater the entropy in a message or signal, the less predictable it is.

כתב ויתור

המידע והפרסומים אינם אמורים להיות, ואינם מהווים, עצות פיננסיות, השקעות, מסחר או סוגים אחרים של עצות או המלצות שסופקו או מאושרים על ידי TradingView. קרא עוד בתנאים וההגבלות.