Ocirn, anzitutto GRAZIE per la disquisizione tecnica :: Abbraccio :.
E' raro poter discutere in modo puramente scientifico, l'Italia è il paese degli stadi e delle chiese, mi fa davvero piacere poter usare il cervello in modo costruttivo anche fuori dal lavoro!
Vengo subito al dunque, senza usare quei termini brutti brutti come "ignoranza", che oltre a non essere offensivi, non erano rivolti a te
Mettetevi comodi ché non so cosa ne uscirà fuori, sono stanco.
Si, vero, non è possibile stabilire con certezza quale è il punto in cui un algoritmo di compressione degrada l'informazione in modo che sia percettibile.
Però questo punto c'è, esiste, anche se non possiamo stabilire esattamente dove si trova!!!
A molti, questa mia affermazione sembrerà strana, inconsistente. Eppure, chi ha studiato un po' di Analisi Matematica, ha già avuto a che fare con concetti di questo tipo.
Per esempio, il numero "pigreco" è un numero "sconosciuto" perché non è possibile calcolare tutte le sue cifre decimali (in qualunque modo esso si voglia scrivere).
Nondimeno, noi sappiamo che questo numero esiste (perché è precisamente il rapporto tra circonferenza e diametro di un cerchio), e sappiamo anche che è compreso tra 3 e 4.
Accade qualcosa del genere per il numero "e", base dei logaritmi naturali.
Entrerò nei dettagli in un altro post, se volete...la matematica mi è sempre piaciuta, è la cosa più vicina a Dio che io conosca.
Torniamo IT.
Vedete, gli algoritmi di compressione si fanno per risparmiare spazio, e nel contempo per arrecare meno danno possibile all'informazione.
In questo senso, e solo in questo senso, ci sono sviluppi continui: per ottimizzare queste due caratteristiche in contrasto tra loro. Non perché gli attuali algoritmi siano "difettosi". Perfetti mai, perfettibili sempre.
Poiché la "potenza" dell'algoritmo di compressione si può dosare a piacere (diciamo tra 0 e 100%), ci sono tantissime possibilità selezionabili per ottenere un certo risparmio di spazio con la relativa perdita di qualità.
Il segnale "originale" non è perfetto. Esso porta con sé un rumore, una indeterminazione che non è soggettiva ma misurabile: è la "grana" con la quale esso definisce l'informazione.
Come per i pixel.
Se salvate una foto in un formato non compresso, avrete la massima definizione possibile...che è quella data dal numero di pixel, che non è infinito. Sotto al pixel, non vedrete niente. La stessa cosa è per un CD: 16bit, 44kHz, due canali. Quello è, e non è l'infinito.
Ebbene, se tra le tante combinazioni possibili della compressione, scegliamo una che produce un degrado maggiore di quello già insito nel segnale, allora abbiamo qualcosa di peggio, che può essere percepito da umane protuberanze acustiche. E qui Carlo è contento perché può mostrare la sua abilità.
Se regoliamo la compressione a livelli bassissimi, allora il degrado prodotto sarà
inferiore alla definizione del segnale, e in tutti i sensi
non ci sarà nessuna perdita di informazione.
Come se applicassimo ad una foto fatta a 10megapixel un algoritmo di compressione che perde un centesimo di milione di informazione: avremmo un degrado di un decimo di pixel, cioè qualcosa che sparisce nella "nube di rumore" della stessa foto originale, che ha la precisione del pixel.
E' chiaro che comprimere pochissimo darebbe un risultato in termini di risparmio di memoria molto basso...ma io non ho detto che c'è un risparmio sicuro di, fissiamo un numero, il 70% di memoria.
Ho affermato che c'è un punto in cui la differenza non si sente più (fattore umano), e questo è variabile, e può essere 192kbps per me, 256kbps per Ocirn, 480kbps per Carlo, 720kbps per Mozart e 1440kbps per Dio in persona...e questo c'è, per quanto indefinito, sicuramente.
C'è, perché più in alto c'è un punto in cui nemmeno Dio può discernere la differenza: il punto in cui la compressione è talmente lieve da restituire un segnale con lo stesso rumore dell'originale. Esattamente quello. Difettoso nello stesso modo, e perciò uguale!!
Proprio per la stessa ragione per cui esiste pigreco: il diametro è tra 1/3 e 1/4 della circonferenza. E questo NESSUNO può metterlo in dubbio, centimetro alla mano.
Avere un impianto superfavoloso non serve a niente, sopra il livello di definizione della sorgente...sarebbe come fare una foto a 100megapixel di una costruzione fatta in LEGO: abbiamo un reticolo di immagine in grado di distinguere i centesimi di millimetro, ma i blocchetti sono grossi come biscotti e tutta quella definizione è inutile perché sprecata.
Tra l'altro, questo è anche il motivo per cui non ha senso fare impianti audio la cui dinamica supera il livello massimo di sopportazione uditiva (le famose gare SPL), oppure il cui livello minimo scende sotto al...rumore ambientale e del veicolo.
Se non avete una Rolls Royce parcheggiata spenta in mezzo ad un deserto, con un impianto da 120dB di dinamica non ci fate niente.
Tant'è vero che quello che ascoltate da fermi, come volume e definizione sonora, è assolutamente inadeguato quando siete in marcia...soldi buttati. Da fermi è un conto, ma nel traffico dovete alzare il volume, e perdete dinamica e una valanga di sfumature. Provare, prego.
Poi, se vi siete fatti un'Alfa per tenerla ferma e stare zitti immobili ad ascoltarci musica...avete bisogno di molto affetto...
Mi spiace, Carlo...una vettura non è il posto migliore su cui investire troppi soldi per ascoltare musica. Anche io facevo impianti da gara. E progettavo e costruivo pure gli amplificatori...che poi venivano scartati perché non avevano marchio!!!
Siccome non li conoscevano, non potevano andare bene. Tipicamente umano...il razzismo nasce così...
E adesso veniamo alle copie senza perdita.
Si, Ocirn, non c'è mai certezza matematica assoluta che una copia non porti in sé una deviazione, un errore.
La probabilità che qualcosa "parta" in un modo e "arrivi" in un altro è sempre diversa da zero.
Ma questo non significa che tale sgradevole circostanza si verifichi sempre...e tanto basta.
Se i dati sono 700 milioni di byte, e la probabilità che una copia rechi in sé un errore è di una su 7 miliardi (una stima pessimistica, con i moderni sistemi), questo significa che se fai 1000 copie (senza alcun controllo di errore), tra queste ce ne saranno mediamente 100 che avranno UN BIT SBAGLIATO in uno solo di quei 700 milioni di Byte.
Sai cosa succede quando in un CD audio c'è un bit sbagliato?
Niente.
Perché è uno su (700 milionix8)=5,6 miliardi. Il convertitore D/A del vostro lettore CD (che sbaglia molto, ma molto di più dello 0,000000014% del mio disco "venuto male") filtrerà intrinsecamente tale errore
e nessuno, ma proprio nessuno, si accorgerà della variazione perché essa sarebbe meno presente della scoreggia di una mosca a 10 metri di distanza.
Come faccio ad affermare questa cosa con certezza? Perché io tengo bene a mente (a differenza di altri) che anche l'incisione originale (chiamatela "stampaggio" se volete) ha la sua probabilità di errore, e non è tanto diversa da quella di una copia ben fatta.
Torniamo al discorso della "grana" della foto: l'errore è molto più piccolo della definizione del segnale, perciò, nel malaugurato caso si sia verificato (e vi ricordo che non è detto si verifichi), non produce NESSUNA variazione significativa.
Attenzione: non ho messo nel calderone gli errori introdotti dal circuito che segue il convertitore, dal preamplificatore, dai commutatori, dai filtri, dai cavi, dall'amplificatore, dalle altoparlanti, e non ultimo dalle variazioni di pressioni dell'atmosfera (provate a osservare con un interferometro LASER come si agitano le molecole d'aria...che spettacolo!).
Se infilo la metà di questi elementi di disturbo, potrei fare copie di CD tutta la vita senza paura di perdere mai la scommessa!
Ascoltate un brano due volte di seguito dallo stesso raffinatissimo impianto: sarà diverso. Perché le altoparlanti si sono scaldate, perché l'atmosfera è più umida/meno umida/più calda/meno calda, perché chi ascolta è fatto di carne e sangue e si trasforma continuamente.
E qualcuno pretende di rilevare un errore tra 700 milioni di byte? A Rambo, lévati la fascia, ché è meglio...:grinser005:
(Perdonate, non sono nel pieno delle mie facoltà mentali, scrivo per divertimento...)
-------------------------------------------------------------------------------Questo, se l'errore c'è.--------------------------------------------------------------------------------------
Ma tante, tantissime volte nemmeno c'è...per esempio, se scaricate un programma dalla rete, basta un solo bit per inchiodare tutto. Uno su miliardi...quante volte avete scaricato roba dalla rete, e ha funzionato?
Signori: quasi sempre.
Ad indicare che l'incidenza di tali errori, con un buon sistema, è vicina allo zero. Rispetto ad una struttura che NON AMMETTE ERRORI.
Quante volte avete visto una calcolatrice tascabile da 1 Euro sbagliare un calcolo? Su, uno sforzo di memoria...nessuna? Esatto!!!
Ci vogliono molte vite per inciampare in tali errori. E se vi è successo, beh, è estremamente probabile che non accada più (e quasi certo che non ve ne accorgereste).
In una struttura come quella che veicola le nostre percezioni, invece, dove la "grana" è limitata (molto limitata), l'incidenza di tali errori è zero.
Viviamo continuamente "immersi negli errori". Nel nostro sangue c'è effettivamente la cacca: sostanze orribili che però non ci uccidono. I microbi sulle maniglie della nostra auto. Gli errori del nostro DNA.
La donna che baciamo con passione ha milioni di batteri sulle labbra, e nella bocca...eppure sentiamo i violini senza impianto, quando la baciamo...
Tutte queste cose vanno QUANTIFICATE, altrimenti non stiamo parlando di niente.
Capisco la psicologia...ma la psicologia porta anche le persone a vendersi casa per comprare un amuleto, oppure ad uccidere un amico per una gelosia infondata.
Possiamo fare di meglio: farci quattro conti, ed ascoltare bene della musica senza spendere 20 stipendi in cose INUTILI.
Avrei fatto volentieri dei grafici per spiegarmi meglio, ma sono stanco...chi vuole può approfondire a piacere tutto questo, oppure si fida delle parole di un esperto (non io, chiedete ad un vero esperto di informatica).
Ora vado a dormire.
Ho convinto qualcuno?
IA