Home » Entropia, informazione, complessità

Lug
15

Entropia, informazione, complessità

Un interessante articolo di Gianni Zanarini sui rapporti tra informazione ed entropia. L’articolo è molto tecnico (riporta la definizione “classica” di informazione, ovvero quella legata al repertorio di probabilità alla fonte, formalizzata matematicamente), ma secondo me vale la pena di uno sforzino, soprattutto per i risvolti epistemologici della seconda parte.

Un commento

  1. utente anonimo ha detto:

    Vai giu’ pesante, eh ?

    Molto bene.

    Ho stampato, appena riesco leggo pure.

Lascia un commento

Questa pagina utilizza i cookies, come le pagine di mezzo mondo. I cookies sono una cosa che fa parte della vita, ok? Don't worry http://www.intranetmanagement.it/cookies/

Questa pagina utilizza i cookies, come le pagine di mezzo mondo. I cookies sono una cosa che fa parte della vita, ok? Don't worry

Grazie mille per la pazienza. E' l'Europa che ce lo chiede