Thursday, April 15, 2010

Information Entropy

Η Εντροπία της πληροφορίας

Η Εντροπία, στη θερμοδυναμική, στη φύση, άρα και στους ανθρώπους. Στατιστική, μαθηματικά και μια επανάσταση στις τηλεπικοινωνίες και τους υπολογιστές. Ο Claude Elwood Shannon κέρδισε ένα βραβείο Νόμπελ για όλα αυτά.
--Δανείζομαι από το wikipedia

" Ιnformation entropy is the same as randomness. A string of random letters along the lines of "fHJZXpVVbuqKbaazaaw" can be said to have high information entropy, in other words large amounts of entropy: the complete works of Shakespeare, by contrast, have lower information entropy, because when forming meaningful words certain combinations of letters are more likely to occur than others. For example in English if you see a q in a word you can be almost certain it is followed by a u. In other words, using the coin example you can be more confident betting on the outcome of the next letter in a story than you would betting on the next letter in a random string."

Πόσο μπορούν να ξεφύγουν οι άνθρωποι από την προβλεψιμότητα του χαρακτήρα τους?
Πόσο μεγάλη είναι η αύξηση της εντροπίας που προκαλούν με τις πράξεις τους?

Τι συμβαίνει όταν δεν καταλαβαινόμαστε? Όταν υπάρχει έλλειψη συνεννόησης?

Αν μπορούσαμε να δούμε τον τρόμο στο πρόσωπο κάποιου....όταν διαπίστωνε μια εκρηκτική αύξηση της εντροπίας στη συμπεριφορά της -επί χρόνια- συντρόφου του... θα καταλαβαίναμε....πως ο Νόμπελ κάπως έτσι έφτασε να εφεύρει την πυρίτιδα...

No comments: