VITO SPERONI CONSULENTE SULLE TELECOMUNICAZIONI E FOTOVOLTAICO
TEMPO IMPIEGATO PER SCARICARE UN FILE
Per sapere il tempo impiegato a scaricare un file useremo la formula della Velocità nel moto rettilineo uniforme v=s/t dove v: è la velocità, s: è lo spazio, e t: è il tempo; e si misura in m/sec, e la adattiamo a i nostri scopi utilizzando la formula:
Velocità in download di una connessione(R)= peso del file(I)/ il tempo in download per scaricare il file(t), supponendo che la velocità in download sia costante.
R=I/t
Se voglio sapere il tempo impiegato per scaricare un file:
t = R/I
e siccome il peso di R e I sono diversi (la R viene indicata con i multipli del byte, mentre la I con i multipli del bit per secondo) è necessario renderli omogenei.
Chiariamo alcuni concetti: per indicare il peso di un file l’unità di misura più usata è il MB=megabyte (la B è maiuscola e indica il byte) e vale un milione di byte, mentre la velocità di trasmissione si utilizza il Mbps o Mb/s (la b è minuscola e indica il bit). Naturalmente per tutte e due le unità di misura ci sono i loro multipli e sottomultipli. Byte(B), Gigabyte(GB), ecc. E analogamente: bit(b), kilobit (kb), Megabit (Mb), Gigabit (Gb).
Per cui se il file ha il peso espresso in gigabyte e la velocità in download in megabit per secondo, è necessario convertire il gigabyte in megabit. Analogamente se il file è in megabyte e la velocità in gigabit per secondo bisogna convertire il megabyte in gigabit.
Esempio: devo scaricare 200 MB (Megabyte) alla velocità di 20 Mbps (Megabit per secondo) quanto tempo impiego.
Per prima cosa converto i Megabyte in Megabit (1 byte= 8 bit per cui moltiplico i 200 MB per 8=1600 Mb).
t=R/I= 1600/20= 80 sec.
Dove trovo tutti dati della mia linea? Per le velocità utilizzo il link: https://www.speedtest.net/ per il peso del file possiamo ipotizzare che un’immagine ad alta risoluzione sia uguale a circa 5 MB, un file audio a circa 40 MB, e un film a circa 700 MB.
DIFFERENZA TRA BIT E BYTE
Il bit e il byte sono le unità di misura principali dell’informatica. Il computer lavora utilizzando un semplice sistema numerico binario ed è formato da due cifre: 0 e 1, chiamati “bit”.
Il bit è l’unità di misura dell’informazione (Binary digit), definita come la quantità minima di informazione che serve a discriminare due possibili eventi equiprobabili.
La cifra 0 indica, nei circuiti elettrici del computer, uno stato di tensione assente, mentre la cifra 1 indica uno stato di tensione presente.
Il bit preso da solo non serve a nulla ma se viene preso a gruppi (o sequenza) è in grado di inviare informazioni ai calcolatori come numeri, lettere, e simboli grafici.
Il più noto è il byte che è formato da 8 bit. Per cui il bit e il byte permettono di “comunicare” con il computer. Per fare questo senza ricorrere al sistema binario è stato introdotto il sistema ASCII, che associa ciascun byte a uno specifico carattere alfanumerico.
Es. la “A” maiuscola corrisponde al byte: 01000001, mentre la “a” minuscola corrisponde al byte: 01100001, e così via.
I valori che possono assumere il bit sono due lo 0 e 1, mentre il byte può assumere:2⁸=256.
Riassumendo possiamo dire che il byte e i suoi multipli forniscono la misura per la dimensione dei file e anche la capacità dei dispositivi di archiviazione di massa (memoria interna al PC, chiavetta USB, micro SD, ecc.).
Il bit e i suoi multipli sono usati per esprimere la quantità di dati trasmessi (Kilobit per sec.=Kbps; Megabit per sec.=Mbps, ecc.).
Per convertire il bit in byte e viceversa, tenendo conto che 1B=8 bit, si fa in questo modo: per passare da byte al bit si moltiplica per 8; se si deve passare da bit al byte si deve dividere per 8.
Es. 10 byte sono 80 bit; 80 bit sono 10 byte.