L’Audio Digitale – Introduzione



Introduzione

Questo articolo è diretto a tutti coloro i quali non hanno mai avuto modo di utilizzare il loro Desktop o Notebook per comporre musica o acquisire segnali audio e quindi non hanno la più pallida idea di dove si trovi il punto di partenza per iniziare. Non vuole pertanto essere un trattato di teoria dei segnali o di fisica acustica ma semplicemente una semplice introduzione ad un mondo più complesso di quello che molti credono, e magari un modo per incuriosire e rimandare il lettore ad approfondimenti più dettagliati sulle diverse questioni. Prima di tutto è bene fare una premessa e capire bene cosa sia l’audio digitale, la differenza tra segnali digitali e segnali analogici e il procedimento di conversione, senza però mettere troppa carne al fuoco ed evitare che qualcuno fugga via a gambe elevate davanti a troppe formule e numeri. La seconda parte invece, chiarito bene il concetto di segnale digitale, campionamento, frequenza di campionamento e via dicendo sarà una specie di lista della spesa comprensiva di tutto ciò che dobbiamo avere per acquisire, riprodurre, manipolare, gestire la nostra musica, siano essi componenti hardware o siano dei softwares.

I Suoni

Brevemente possiamo definire i suoni come effetto della propagazione di energia nell’aria o in qualsiasi altro mezzo in cui è immersa la sorgente sonora, sprigionata da una vibrazione con frequenza propria che provoca una compressione delle molecole del mezzo in questione. Quando pizzichiamo una chitarra ad esempio il suono che ascoltiamo, comprime l’aria circostante con diverse conseguenze che possono essere sufficienti per descrivere un suono nelle sue caratteristiche fondamentali: La frequenza: ovvero quel numero di vibrazioni prodotte nell’arco di un secondo da una sorgente vibrante, o anche da un segnale elettrico che determina l’altezza della nota (più una frequenza sarà bassa più il suono sarà grave, più sarà numericamente elevata più il suono sarà alto). L’ampiezza di un suono: descrivibile come la transizione di un’onda sonora dai valori negativi a quelli positivi sull’asse delle x (vedi fig.1), che determina l’intensità ovvero il volume con cui viene percepito. Il Timbro: il vero e proprio elemento caratterizzante di un suono, quello che ci permette di distinguere il suono di un flauto da quello di un pianoforte o qualsiasi altro strumento. Per questo parametro tuttavia andrebbe aperto un capitolo a parte poiché non è decifrabile facilmente come i parametri di ampiezza e frequenza e la sua natura può dipendere da molteplici fattori, primo tra tutti il modo in cui le armoniche si compongono tra di loro.

Come è composto un suono:

abbiamo diversi modi per “vedere” un suono e analizzarlo, i più comuni sono quelli che prendo in considerazione la forma d’onda di un suono o la sua distribuzione nello spettro. La forma d’onda ci mostra l’andamento dinamico, quindi la variazione d’ampiezza, durante il tempo di sviluppo di un qualsiasi suono. Sull’asse delle y avremo quindi indicata l’ampiezza, mentre sull’asse delle x lo scorrere del tempo. [inline:Forma Onda.jpg] in questo caso è stato usato un brano del compositore Arvo Part, dove è chiaro il crescendo dinamico. L’analisi dello spettro invece ci illustra la composizione armonica di un suono. Prima di proseguire bisogna spiegare che ogni suono, dal più semplici ail più strano o complesso, è il risultato della somma di infinite onde pure o sinusoidi, che non sono più scomponibili(vedi FFT ). Un suono di chitarra o di pianoforte è un suono armonico costituito da una frequenza fondamentale di massima ampiezza da cui nascono altre vibrazioni dovute a fenomeni fisici coma la risonanza della cassa armonica o la stessa forma della corda, dette armoniche che sono in perfetto rapporto, appunto armonico, rispetto alla fondamentale. Un suono può anche essere inarmonico ovvero non aver una frequenza fondamentale ma avere molte armoniche non legate tra di loro da un rapporto matematico ben preciso come può essere per molti suoni metallici. L’analizzatore di spettro può mostrarci lo spettro delle frequenze con una distribuzione lineare o logaritmica.

L’audio digitale:

ogni computer possiede una scheda audio, detta integrata perché inglobata alla motherboard, mezzo necessario per riprodurre suoni digitali contenuti nel computer sotto forma di files (*.wav, *.mp3, *.wma, *.aiff, *.flac etc…) e acquisire segnali audio analogici nel computer convertendoli in file digitali. Questo processo avviene grazie ad un elemento della scheda audio: il convertitore AD/DA (Analog-to-Digital/Digital-to-Analog). In soldoni potremmo definire un segnale analogico come un flusso continuo, una tensione misurabile in Volt, mentre come ben saprete il mondo digitale è costituito da tanti 0 e tanti 1, e quindi potremmo definire il segnale digitale come una serie di 0 e 1 ordinati da alcuni criteri determinandi. In realtà la distinzione tra analogico e digitale è ben più complessa, ma visto che questo articolo serve solo per fare un po’ di chiarezza e non vuole essere un trattato di teoria dei segnali mi fermo qui. Il compito del convertitore AD è quindi quello di quantizzare in dati binari un voltaggio in entrata. Aiutiamoci con delle immagini: qui sotto possiamo vedere una semplice sinusoide, ovvero la forma d’onda più pura che esista. Pura perchè tutte le altre forme d’onda (dente di sega, triangolare, quadra ecc..) o qualsiasi suono che andiamo a sentire sono a loro volta scomponibili tramite procedimenti matematici in più sinusoidi, dette armoniche tramite un procedimento chiamato FTT (Fast Fourier Transform). Per ora ci accontentiamo di guardare un suono come la progressione dell’ampiezza di un onda nel tempo: sull’asse delle x infatti andremo ad inquadrare l’ampiezza in un valore da -1 ad 1 dove nel punto 0 abbiamo ampiezza 0 quindi silenzio, nell’asse delle y invece andremo ad inquadrare lo scorrere del tempo che, per una sinusoide di queste dimensioni non va misurato ne in secondi, ne in millisecondi, bensì in radianti. Il periodo è la parte dell’onda che fa un “giro completo” e che viene ripetuta nella frequenza. Una frequenza di 220Hz corrisponde a 220 vibrazioni in un secondo ovvero 220 periodi in un secondo. La sinusoide disegnata qui per esempio è costituita 2 periodi e mezzo! Tornando al discorso principale che ci ha fornito lo spunto per questa utile digressione, possiamo dire che la sinusoide qui disegnata è adatta a rappresentare un suono analogico, continuo, privo di interruzioni e discretizzazioni. Arrivati a questo punto non ci resta che descrivere in maniera piuttosto semplice quello che accade quando vogliamo acquisire sul nostro computer dei segnali analogici provenianti da un microfono, da una chitarra o qualsiasi altra cosa. Bisogna tenere conto di due parametri fondamentali, la Frequenza di campionamento o Sample Rate in inglese e il Bit Depth o profondità o risoluzione: [inline:Sin 1.gif] La Frequenza di campionamento, che dev’essere almeno di 44.100hz onde evitare errori digitali conseguenti alla discretizzazione, ha il compito di leggere ad intervalli di 44.100hz (nel nostro caso) il segnale che andiamo a registrare trasformandolo in campioni. Il campione è pari ad 1sec/freqcampionamento. Nel nostro caso quindi, un campione sarà grande 1/44100 ovvero la 44100esima parte del secondo. Possiamo giungere brevemente alla conclusione che, un buffer, ovvero un’allocazione di memoria che viene riempita e svuotata di seguito dai dati acquisiti, costituita da 512 campioni avrà una durata di 12ms circa. Ovviamente un incremento della frequenza di campionamento determina un aumento dei MB necessari per ospitare il file conterrà le nostre informazioni audio. Perchè si sceglie quindi una frequenza di campionamento di 44.100hz o 44.1Khz ? Semplice, è considerato spettro di frequenze udibili quel range di frequenze comprese tra i 20hz e 22.050hz, al di sotto del quale avremo frequenze infrasoniche e al di sopra del quale avremo frequenze ultrasoniche. Detto soltanto questo potremmo obiettare che, visto che sopra i 22.050 hz ci sono gli ultrasuoni, che a noi non servono, potremmo utilizzare una frequenza di campionamento di 22.050 hz, risparmiando così spazio su disco e risorse del nostro computer! Purtroppo non è così semplice: Shanno e Nyquist infatti formulando la teoria del campionamento hanno stabilito che le frequenze udibili in un suono riprodotto digitalmente sono l’esatta metà della frequenza di campionamento. Ecco allora che, con una frequenza di campionamento di 44.100hz avremo un range totale di frequenze udibili di 22.050, esatte. Con una frequenza di campionamento di 22.050 avremmo un range di 11khz, insufficiente per raccogliere tutto lo spettro di frequenza udibile.

Piccola considerazione sullo spettro udibile:

dal momento in cui decidiamo di registrare a 44.1hz sappiamo di avere a disposizione tutto lo spettro di frequenze udibili. Generalmente persone che possono arrivare ad ascoltare, in un test audiometrico, un suono oltre i 16-18Mhz sono veramente poche e con l’età il nostro apparato uditivo può indebolirsi sensibilmente. Molto importante è invece tenere conto che suoni sopra i 10.000hz spesso sono armoniche di altri suoni, ovvero frequenze con un determinato rapporto rispetto alla frequenza fondamentale, non udibili direttamente ma facenti parte della costruzione armonica del suono, dunque indispensabili per la percezione corretta e completa della sua timbrica. Il Bit Rate e i livelli dinamici

Nota Finale: questo articolo non è finito, verrà ampliato nei contenuti e probabilmente modificato nella forma

Cap II. La scheda audio

Annunci sponsorizzati:
Condividi su Facebook Condividi su Twitter!
  • Donatella Vazzino

    Eccezionale! Complimenti, finalmente un articolo veramente chiaro!

Pinterest